跳转到内容

Claude Code

154 posts with the tag “Claude Code”

MoneyMind App 上架:AI 自主开发通过苹果 App Store 审核

影响 AI 自主开发软件效率最大因素是人工参与,只要人工参与,执行效率立马陡然下降,其次是 Tokens 或费用限制,也会让 AI 自主开发软件中断。

App Store Connect - 准备提交


今天早上,我登录 App Store Connect,发现 App 状态从之前的黄色小点「Waiting for Review」变成了绿色小点「Ready for Submit」。

小激动——Claude Code + Opus 4.5 + BMAD V6 + Flutter MCP 让 AI 自主开发的 MoneyMind 省钱思维 App 终于通过 Apple Store 官方审核,可以发布上线了。

MoneyMind App 审核通过


最初动机:AI 自主开发软件的挑战

Section titled “最初动机:AI 自主开发软件的挑战”

Vibe Coding 人工指挥 AI 开发 App 非常容易,开发小白 + 任意一款 AI Agent 都可以,应用市场上充斥着大量此类 App。

作为专业软件开发工程师,应该站在 AI 软件开发技术前沿,质疑现有的开发方式,从头开始思考新的开发方式。

当时我已经使用 Claude Code + BMAD 通过 Vibe Coding 灵感编程方式开发软件系统项目已经 6 个多月了,我认为它们作为最先进的软件工程 + 敏捷开发 + AI Agent 的最佳组合,为软件工程带来了巨大的效率和质量提升。

在日常开发深入使用 Claude Code + BMAD 的过程中,我深刻体会到两点:

    1. 开发趋势:AI 自主开发正在大规模取代人工开发,人类会逐渐边缘化;
    1. 效率瓶颈:人工干预和 AI 费用是制约 AI 效率的两大瓶颈。如果 AI 需要等待人工干预或确认,或者 AI 费用额度耗尽,开发效率立马陡然下降;

鉴于以上两点,我认为评审或监督 AI 开发,鼓励更多与 AI 协作或者管理 AI 的方式,并不是未来 AI 演进和世界发展的方向。

我开始认真思考和尝试,在日常开发中如何减少与 AI 的交互,也能完成预定的任务目标,尽可能以提高开发效率。

我在追求和探索简单、高效、低成本的 AI 开发方式。类似 zero-shot AI,仅通过一段简单的提示词(描述任务),剩下的就交给 AI 自主完成设计、编码、测试、部署等全流程。整个过程无需人工干预、确认和管理 AI。

只提供简单的提示词,剩下的全交给 AI 自主完成。这需要支持长时间、稳定自主执行的 AI Agent,先进的敏捷开发流程和充分透明的内省运行时

软件开发编码不难,AI 时代没来之前,软件开发工程师实现开发软件本来就很容易。但是难在于提出想法和验证想法。

得益于以下最佳搭配:

  • Claude Code - 最佳工程和生态的 AI Agent 系统
  • Opus 4.5 - 最佳编码大语言模型
  • BMAD V6 - 最强 AI 驱动敏捷开发流程 + 软件开发流程
  • Flutter MCP - 最透明的的开发语言和框架 MCP

解决办法是:通过 AI 来解决提出想法和验证想法的困难。

AI 开发过程其实非常简单,

  • 安装和配置 Claude Code + Opus 4.5 + BMAD V6 + Flutter MCP

  • 提供一个关于简单的想法

  • 然后让 AI 根据 BMAD v6 推荐的敏捷开发流程,推荐自主完成设计、编码、测试全流程

    • 首先 /bmad:bmm:workflows:workflow-init 初始化项目
    • 然后 /bmad:bmm:workflows:create-product-brief 创建产品简要说明
    • 选择 Quick Flow Dev 模式,全程不需要生成和维护文档
    • 最后输入 YOLO mode. Continue. Don't ask me until you implement all stories and run pass all integration tests. 如果 Claude Code 执行中断了,还是继续输入这句话。

从去年 11 月开始,到今天 App Store 审核通过上架发布,MoneyMind App 基本上实现了既定目标:让 AI 自主开发 App,我只在最初开始提出最初的想法,剩下就交给 AI 生成和验证 App,在整个过程无需人工参与或者尽量少人工参与。


11 月初开始启动,断断续续开发到 12 月初,最后在 12 月底圣诞平安夜前夕提交 App Store 送审。

因为是首次提交 App,App Store 审核较严,流程较长:

  • 首次提交更严格 - 第一次上架的应用需要经历更细致的审核
  • 假期延迟 - 刚好是圣诞、年底和新年放假,审核周期比平时更长
  • 屏幕兼容问题 - 完全 AI 自主测试,缺少在不同屏幕兼容测试,App Store 审核发现存在文字重叠覆盖和部分功能缺失
  • 账号删除功能 - App Store 要求增加删除账号的功能

提交历史

  • 12 月 23 日:首次提交
  • 4 次提交送审
  • 3 次被驳回拒绝
  • 14 天后终于首次通过 App Store 官方审核
  • 其间还粗心提交过错误的版本

MoneyMind 这个想法很简单:

AI 扩展

让「省钱」像打游戏一样好玩,把枯燥的记账变成有目标、有成就感的日常小动作。

  • 储蓄目标(Goals)- 设定和追踪财务目标
  • 每日小额存钱(Daily Savings)- 记录每日小额存款
  • 连续打卡(Streak)- 通过每日签到建立习惯
  • 徽章与成就系统(Badges & Achievements)- 游戏化进度奖励

详细开发历程请参考:MoneyMind App 开发博客


    1. 代码规模

    总行数: 89,933 行

    文件数: 133 个

    生成代码: 约 40,000 行(其余 ~50k 为 generated 代码,主要是 app_database.g.dart)

    1. 页面与路由
    • App 包含 16 个活跃页面。

      活跃页面 (Active Pages):

      底部导航: 首页 (Home), 目标 (Goals), 储蓄 (Savings), 分析 (Analytics), 我的 (Profile)

      功能详情: 成就, 目标详情, 添加目标, 目标模板, 设置, 文档查看

      系统流程: 启动页, 引导页, 个人信息设置, 错误页

  • 时间成本:
    • Claude Code 自主跑了 100 多个小时开发方面
    • 我参与大概不到 4 小时,后面多花了 8 小时处理 App Store 应用送审,另外花 8 小时写相关文章
  • 费用成本:Claude Max 200 美金订阅 1 个月左右

今天通过审核上架,本想小小庆祝一下,但是下载安装后,开启省钱计划模式,设定一个目标:

到 1 月 31 日,在一个月内,多省出 1000 元用来投资

中午不吃饭,不喝星爸爸,走了 1 万步——每一点小小的节省都值得记录。

我的目标 - 屏幕 1

我的目标 - 屏幕 2

省钱记录

首页 - 屏幕 1

首页 - 屏幕 2

统计 1

统计 2

统计 3


MoneyMind App 继续让 AI 自主开发新功能:

  • 数据导出功能
  • 国际化支持
  • 社交分享
  • 数据同步
  • macOS、Windows、Linux 和 Android 版本

反正都是 AI 来实现,这些功能实现起来不会费我太多时间。

今年 2026 年计划在以下方面扩展 AI 自主能力:

广度:让 AI 自主完成 APP/微信小程序/Web + 接口服务,以及游戏和嵌入式等更多软件的开发、测试和验证

深度:除了 Claude Code、Opus 4.5、BMAD v6,还可以用其他平替工具,如 OpenCode、GLM 4.7 等模型和其它软件开发流程,让 AI 自主完成软件开发、测试和验证

并发度:让 AI 并行、异步、自主推进多个软件项目的能力

力度:继续减少自己在 AI 技术上的投入和参与度,开始和 AI 技术脱敏,远离 AI 技术,和 AI 技术保持适当的距离

通过理论 + 实践的结合,提出想法,验证想法,总结完善持续迭代,最终实现更多 AI 自主完成。

最终实现 AI 在无需人工监督、管理、干预的情况下,AI 自主并行推进软件开发、测试、验证、部署和维护,完成软件的全生命周期管理闭环和自治演进。


影响软件开发效率最大因素是人工参与,比如 App Store 人工送审和人工审核,周期长,容易出错。只要人工参与,执行效率立马陡然下降,其次是 Tokens 或费用限制,也会让 AI 自主开发软件中断。

现在 Vibe Coding AI 开发软件,技术上已经非常成熟可靠,很快就能让开发出软件。这对软件开发来说,并不是零和游戏。未来软件开发市场前景会非常广阔,专业软件开发工程师和普通用户都能从中受益。


MoneyMind 从想法到 App Store 上架的历程证明:AI 自主软件开发不仅可行——它已经到来。通过正确的工具组合(Claude Code + Opus 4.5 + BMAD V6 + Flutter MCP)和清晰的愿景,AI 可以在最少人工干预的情况下处理完整的软件开发生命周期。

软件开发的未来可能是人人参与,与 AI 协作,但最终可以是 AI 自主完成的。

Agent Flywheel - 30分钟将VPS转变为AI驱动的编程环境

Agent Flywheel - 30分钟将VPS转变为AI驱动的编程环境

Section titled “Agent Flywheel - 30分钟将VPS转变为AI驱动的编程环境”

从零到代理编程只需30分钟。将全新的云服务器转变为完全配置的代理编程环境,预装Claude Code、OpenAI Codex和Google Gemini——全部配备30多种现代开发工具。完全免费且开源。

Agent Flywheel官网 | GitHub仓库

AI编程代理(如Claude Code、Codex CLI和Gemini CLI)的兴起在软件开发领域创造了新的范式。这些代理可以编写生产代码、调试问题和架构解决方案——但前提是它们拥有合适的环境。

门槛不在于代理本身,而在于创建一个让代理能够高效工作的环境所需的数小时设置时间:

  • 3-7小时的手动设置时间
  • VPS配置、shell定制、运行时安装
  • 代理身份验证、协调工具、安全防护
  • 无休止的故障排除

Agent Flywheel完全消除了这个障碍。一个命令,30分钟,完全配置完成。

Terminal window
curl -fsSL "https://raw.githubusercontent.com/Dicklesworthstone/agentic_coding_flywheel_setup/main/install.sh?$(date +%s)" | bash -s -- --yes --mode vibe

就这样。安装程序处理一切:

  • 30+工具安装:从shell配置到语言运行时
  • 3个AI代理:Claude Code、Codex CLI、Gemini CLI——全部预配置
  • 幂等且安全:随时重新运行;从中断处继续
  • Vibe模式:无密码sudo,启用危险标志以获得最大速度

Agent Flywheel安装专业代理编程所需的一切:

Shell和终端UX

  • zsh + oh-my-zsh + powerlevel10k(现代、快速的提示符)
  • lsd、atuin、fzf、zoxide、direnv(现代CLI体验)

语言运行时

  • Bun(JavaScript/TypeScript)
  • uv(Python)
  • Rust(Cargo)
  • Go

AI编程代理

  • Claude Code CLI(使用原生安装程序)
  • Codex CLI(OpenAI)
  • Gemini CLI(Google)

开发工具

  • tmux(终端复用器)
  • ripgrep、ast-grep(快速代码搜索)
  • lazygit(Git TUI)
  • neovim、bat、jq等

云CLI

  • HashiCorp Vault
  • Wrangler(Cloudflare)
  • Supabase CLI
  • Vercel CLI

Dicklesworthstone堆栈(8种多代理协调工具)

  • NTM(命名Tmux管理器)
  • MCP Agent Mail(代理协调)
  • UBS(终极错误扫描器)
  • Beads Viewer(任务管理)
  • CASS(代理会话搜索)
  • CM(CASS内存)
  • CAAM(编码代理账户管理器)
  • SLB(同时启动按钮)

代理工作流需要专用计算能力。原因如下:

AI代理消耗大量RAM和CPU。在本地运行它们会耗尽电池并减慢一切。每个代理使用约2GB RAM——对于10+个代理,你需要48-64GB,这超过了大多数笔记本电脑的配置。

云巨头按小时收费,账单不可预测。专用VPS更简单、更便宜。64GB VPS每月约$40-56——等效的云资源成本要高3-5倍。

你的VPS全天候运行。睡前排队任务,醒来时代码已完成。AI代理可以自主重构、测试和迭代——过夜复合进展。

Agent Flywheel在agent-flywheel.com包含一个分步向导网站,引导完全初学者完成:

  1. 在本地机器上安装终端
  2. 生成SSH密钥以实现安全访问
  3. 从OVH或Contabo等提供商租用VPS
  4. 通过SSH连接
  5. 运行安装程序
  6. 开始使用AI代理进行编码

该向导提供:

  • 操作系统检测:自动检测Mac与Windows以提供定制说明
  • 复制到剪贴板:所有命令的一键复制
  • 进度跟踪:跨浏览器会话从中断处继续
  • 故障排除:常见问题的可展开帮助

Vibe模式专为一次性VPS环境设计,速度比安全性更重要:

  • 无密码sudo消除摩擦
  • 代理危险标志跳过确认对话框
  • 预配置别名以获得最大速度

警告:永远不要在生产或共享系统上使用vibe模式。它故意不安全以换取速度——仅在可以重建的临时VPS实例上使用。

Agent Flywheel不仅仅是工具的集合——它是一个精心策划的系统,每个组件都能放大其他组件。价值是乘法的,而不是加法的。

更好的环境 → 更多代理生产力 → 更多代码编写
→ 更好的理解 → 更好的提示 → 更好的环境

Dicklesworthstone堆栈实现了否则不可能的工作流:

  • NTM用一个命令在命名的tmux窗口中生成10个代理
  • Agent Mail通过消息传递和文件保留进行协调
  • SLB为危险操作提供两人规则
  • Beads Viewer为代理提供任务可见性

这使得10个代理并行工作而不互相干扰——否则需要开发人员一周的工作,一天内完成。

完全透明地展示你每月实际支付的费用:

组件月费用
云VPS(64GB RAM)$40–56
Claude Max$200
ChatGPT Pro$200
总计$440–656/月

与月薪$5,000+的初级开发人员相比。在$700以下,你获得10+个AI代理全天候工作,在你睡觉时编写代码。

模式无密码sudo代理标志最适用于
vibe--dangerously-skip-permissions一次性VPS,最大速度
safe标准确认类生产环境

安装后,使用以下命令验证一切:

Terminal window
acfs doctor

这执行全面的健康检查:

  • 身份(用户、sudo)
  • Shell配置
  • 核心工具(bun、uv、rust、go)
  • AI代理(claude、codex、gemini)
  • 云CLI(vault、wrangler、supabase、vercel)
  • Dicklesworthstone堆栈工具

访问agent-flywheel.com并按照13步向导操作。它指导你从”我有一台笔记本电脑”到”AI代理正在为我编码”。

在全新的Ubuntu VPS上运行单行命令:

Terminal window
curl -fsSL "https://raw.githubusercontent.com/Dicklesworthstone/agentic_coding_flywheel_setup/main/install.sh?$(date +%s)" | bash -s -- --yes --mode vibe

安装后,运行交互式教程:

Terminal window
onboard

ACFS提供可重现、幂等的设置——确保每个团队成员的VPS环境完全相同,为代理工作流消除”在我的机器上能工作”的问题。

我构建Agent Flywheel是因为我收到了来自朋友、亲戚和互联网上陌生人的大量请求,他们希望我帮助他们开始使用AI进行软件开发。

我想要一个资源,我可以指向人们,帮助他们”从头到尾”完成设置——即使他们几乎没有计算机专业知识,只有动机和愿望。

这也是一个分享我完全免费、开源的代理编码工具套件的平台——这些工具最初是为我在私募股权和对冲基金的咨询工作而构建,现在可帮助其他人提高生产力和创造力。


转变你的编码方式。让AI代理编写生产代码,而你专注于意图、架构和质量。

CCometixLine:基于 Rust 的高性能 Claude Code 状态栏工具

在 AI 辅助开发快速发展的今天,高效的工具至关重要。CCometixLine 作为一款专为 Claude Code 打造的高性能状态栏工具,凭借其基于 Rust 的构建和无缝的工作流集成,成为了开发者的强大助手。

CCometixLine 是一个为 Claude Code 量身定制的状态栏工具。它采用 Rust 语言编写,在提供丰富功能的同时,通过优先考虑性能和稳定性,确保了极致的使用体验。其主要功能包括 Git 集成、使用量追踪以及用于配置的交互式终端用户界面(TUI)。

CCometixLine 不仅仅是一个简单的状态显示工具,它还能极大增强您的 CLI 体验:

  • Git 集成:即时查看分支状态、变更情况(干净/未提交/冲突)以及远程追踪状态(领先/落后)。
  • 模型感知:显示简化的 Claude 模型名称(例如 “Sonnet 3.5”),便于快速参考。
  • 使用量追踪:基于对话分析,实时监控 Token 使用情况和上下文窗口状态。
  • 交互式 TUI:内置可视化的配置界面,支持实时预览,轻松自定义主题和设置。
  • 鲁棒性:包含“增强补丁(robust patcher)”,能够适应 Claude Code 的版本更新,并支持自动备份。

安装 CCometixLine 非常简单,既可以通过 npm 安装,也可以直接下载二进制文件。

Terminal window
npm install -g @cometix/ccline

如果您更喜欢使用二进制文件或不使用 npm,可以前往 GitHub 发布页 下载适用于 Linux、macOS 或 Windows 的最新版本。

CCometixLine 的一大亮点是其 交互式 TUI。只需运行以下命令:

Terminal window
ccline --config

这将打开一个可视化界面,您可以:

  • 选择内置主题(Minimal, Nord, Gruvbox 等)。
  • 启用或禁用特定板块(时间、成本、Git 等)。
  • 自定义颜色和图标。

此外,您也可以手动编辑 ~/.claude/ccline/config.toml 文件进行配置。

要将 CCometixLine 设置为您的状态栏,请更新您的 Claude Code settings.json 文件:

{
"statusLine": {
"type": "command",
"command": "ccline",
"padding": 0
}
}

注意:请确保 ccline 在您的系统 PATH 中,或者填写可执行文件的完整路径。

与普通的状态栏不同,CCometixLine 基于 Rust 构建,即使在处理复杂的 Git 操作和对话分析时,也能保证极低的延迟。其丰富的功能集,配合便捷的 TUI 配置,使其成为追求极致效率的 Claude Code 高级用户的必备工具。

CCometixLine 为 Claude Code 带来了显著的体验提升。无论您是需要更清晰的 Git 状态概览,还是希望更有效地追踪 Token 使用,亦或是单纯想要一个个性化的美观界面,CCometixLine 都能满足您的需求。

立即尝试,升级您的开发环境!

查看 GitHub 项目

Claude Skills 15分钟快速入门:AI Will 为非技术用户打造的详细教程

Claude Code 彻底改变了开发者与 AI 交互的方式,但许多用户对”Skills”(技能)——扩展 Claude 功能的自定义能力——感到畏惧。AI Will (@FinanceYF5) 是一位增长顾问和 AI 行业分析师,他创建了一个全面的教程,打破了这一障碍,让非技术用户也能在 15 分钟内轻松设置 Claude Skills。

本文将探讨 AI Will 的方法,并提供额外的上下文,帮助你快速、自信地开始使用 Claude Skills。

Claude Skills 是可重用的自定义功能,你可以创建它们来扩展 Claude Code 的能力。可以将它们视为个人工具,用于自动化重复性任务、编码你的偏好设置,或与外部服务集成。Skills 的范围可以从简单的文本格式化工具到复杂的多步骤工作流。

根据 Reza Rezvani 的分析中引用的 METR 研究,使用 AI 工具的开发者往往比不使用 AI 的开发者完成任务的速度更慢,同时却自认为效率更高。这种生产力差距存在的原因是,用户专注于生成更多代码,而不是构建能够随时间复利增长的可重用能力。

Skills 是解决这个问题的方案。它们将一次性提示转化为持久的、可优化的工具,真正加速你的工作流程。

AI Will 的教程在多个 X(Twitter)主题中分享,强调无障碍性是首要原则。其核心理念是:Claude Skills 不应该令人畏惧 —— 尽管看起来有些复杂,但实际上设置起来非常简单。

  1. 从简单开始:首先解决眼前问题的基本技能
  2. 边做边学:教程是实践性的,而非理论性的
  3. 对非技术友好:无需编码背景
  4. 15分钟目标:设置时间应该可以在短休息内完成

基于 AI Will 的主题和 Claude Skills 教程生态系统,以下是推荐的学习路径:

Claude Code 将技能存储在项目的 .claude/skills 目录中。每个技能都是一个具有特定结构的 markdown 文件:

---
description: "这个技能的作用"
---
# 你的技能说明在这里

最常见的起点是一个简单的技能,用于编码你的编码偏好。例如:

文件.claude/skills/code-style.md

---
description: "应用一致的代码风格偏好"
---
编写代码时:
- 使用 TypeScript 严格模式
- 尽可能优先使用 const 而非 let
- 为函数添加 JSDoc 注释
- 遵循项目现有的命名约定

通过在对话中引用来激活你的技能:“使用我的 code-style 技能”。Claude 将自动应用这些偏好。根据结果进行迭代。

编码你团队的编码标准,使 Claude 自动生成符合规范的代码。

创建多步骤工作流,如”运行测试、代码检查并生成 PR 描述”作为单个技能调用。

Skills 可以包含 shell 命令,允许与开发工具集成。

你偏好的文件组织、命名模式或文档风格可以一次编码,永远重用。

AI Will 的教程是 Claude Skills 资源生态系统的一部分:

准备构建你的第一个技能了吗?以下是最快的路径:

  1. 打开终端并导航到 Claude Code 项目
  2. 创建技能目录mkdir -p .claude/skills
  3. 创建你的第一个技能echo '# Hello World Skill' > .claude/skills/hello.md
  4. 测试它:在 Claude Code 中输入”使用 hello 技能”

从这里开始,探索 AI Will 的完整教程,了解构建更复杂技能的全面指导。

Claude Skills 是释放 Claude Code 全部潜力的关键。AI Will 的 15 分钟教程消除了令人畏惧的因素,为所有技术背景的用户提供了清晰的路径。只需投入 15 分钟,你就可以开始构建一个可重用能力库,在未来的每一次会话中都会带来回报。

入门门槛很低 —— 唯一的限制是你的想象力。

问题:GLM 配额限制导致内容丢失

为了加快内容创作速度,我们进行了一项实验,使用 Claude Code 同时撰写多篇博客文章。然而,这种激进的并行化策略遇到了瓶颈:GLM API 配额限制。这一意外的限制导致了内容丢失,几篇博客文章未能完成。

为了最大限度地提高效率,我们并行启动了 10 多个 Claude Code shell 实例。目标是同时生成一批博客文章。

监控

随着多个实例开始生成内容,它们迅速消耗了可用的 API 配额。GLM API 有严格的速率限制和配额,一旦达到阈值,就会阻止进一步的请求。

配额概览

系统立即标记了配额违规。

达到配额限制

达到 API 直接导致的后果是几篇博客文章的生成过程被突然终止。这使得文件处于不完整状态,实际上导致了内容丢失。

内容丢失

检查微信公众号草稿箱证实,文章没有成功完全生成或上传。

微信文章

虽然并行处理是提高效率的强大技术,但必须与 API 配额等外部限制相平衡。未来的批量处理将需要实施速率限制或顺序排队,以确保稳定性和数据完整性。

Sub-Agents Directory: Claude Code 子代理一站式发现平台

Sub-Agents Directory: Claude Code 子代理一站式发现平台

Section titled “Sub-Agents Directory: Claude Code 子代理一站式发现平台”

精选 100+ 专业子代理提示词,让 Claude Code 成为你的全能编程助手

Sub-Agents Directory 是一个精心策划的 Claude Code 子代理(sub-agents)和 MCP 服务器集合平台。对于使用 Claude Code 的开发者来说,这是一个宝贵的资源库,可以快速找到针对特定技术栈、框架或开发场景的专业化 AI 助手提示词。

  • 精选质量: 所有子代理提示词都经过精心筛选和验证
  • 分类清晰: 按技术领域、语言、框架等多维度分类
  • 即用即得: 每个提示词都可以直接复制到 Claude Code 中使用
  • 社区驱动: 持续更新,接纳社区贡献

涵盖主流编程语言的专家级子代理:

语言子代理专长领域
AngularAngular ArchitectRxJS, NgRx, 微前端架构
C++Cpp Pro现代 C++20/23, 模板元编程
C#Csharp DeveloperC# 12, Blazor, 跨平台开发
PythonPython Pro类型安全, 异步编程, 数据科学
JavaScriptJavascript ProES2023+, 异步编程, 全栈开发
GoGolang Pro高性能系统, 并发编程, 云原生微服务
RustRust Engineer系统编程, 内存安全, 零成本抽象
JavaJava Architect企业级应用, Spring 生态系统
TypeScriptTypescript Pro高级类型系统, 全栈开发
框架子代理专长领域
ReactReact SpecialistReact 18+, 性能优化, Server Components
VueVue ExpertVue 3, Composition API, Nuxt 3
Next.jsNextjs DeveloperApp Router, Server Components, SEO
FlutterFlutter Expert跨平台开发, 自定义动画, 原生集成
领域子代理专长领域
DjangoDjango DeveloperDjango 4+, REST API, 异步视图
RailsRails ExpertRails 8.1, Hotwire/Turbo, Action Cable
Spring BootSpring Boot Engineer微服务, 响应式编程, Spring Cloud
.NET CoreDotnet Core Expert.NET 10, 跨平台开发, 云原生应用
LaravelLaravel SpecialistLaravel 10+, 优雅语法, Eloquent ORM
平台子代理专长领域
KubernetesKubernetes Specialist容器编排, 集群管理, 安全加固
AzureAzure Infra Engineer网络设计, 身份集成, PowerShell 自动化
AWS/GCP/AzureCloud Architect多云策略, 可扩展架构, 成本优化
DevOpsDevops EngineerCI/CD, 容器化, 云平台集成
领域子代理专长领域
AI EngineeringAi EngineerAI 系统设计, 模型实现, 生产部署
LLMLlm Architect大语言模型架构, 部署优化
Data EngineeringData Engineer数据管道, ETL/ELT, 数据基础设施
ML EngineeringMachine Learning Engineer模型部署, 推理基础设施
MLOpsMlops EngineerML 基础设施, 平台工程, 运营卓越
领域子代理专长领域
Code ReviewCode Reviewer代码质量, 安全漏洞, 最佳实践
DebuggingDebugger复杂问题诊断, 根因分析
PerformancePerformance Engineer系统优化, 瓶颈识别, 可扩展性
SecuritySecurity EngineerDevSecOps, 云安全, 合规框架

这是 Sub-Agents Directory 的特色类别,专注于多代理系统的协调与管理:

角色子代理专长领域
代理组织者Agent Organizer多代理编排, 团队组装, 工作流优化
上下文管理Context Manager信息存储, 检索, 同步
错误协调Error Coordinator分布式错误处理, 故障恢复
多代理协调Multi Agent Coordinator复杂工作流编排, 代理间通信
任务分发Task Distributor智能工作分配, 负载均衡

访问 sub-agents.directory,按类别浏览你需要的专业子代理。

每个子代理页面都包含完整的提示词定义,点击复制即可获取。

将复制的提示词保存为 .claudeskills 文件,或直接在 Claude Code 中引用。

Terminal window
# 创建技能目录
mkdir -p ~/.claude/skills
# 保存提示词(以 React Specialist 为例)
cat > ~/.claude/skills/react-specialist.md << 'EOF'
# React Specialist Sub-Agent
[完整的提示词内容...]
EOF

在 Claude Code 中使用 /skill 命令调用:

/skill react-specialist帮我优化这个 React 组件的性能

对于复杂任务,可以组合使用多个专业子代理:

# 1. 使用 Code Reviewer 审查代码
/skill code-reviewer
# 2. 使用 Performance Engineer 优化性能
/skill performance-engineer
# 3. 使用 Security Engineer 进行安全检查
/skill security-engineer

基于现有提示词进行定制,适应你的项目特定需求:

  • 添加项目特定的编码规范
  • 集成内部工具和框架
  • 调整输出格式和详细程度

Q: 子代理和 MCP 服务器有什么区别?

Section titled “Q: 子代理和 MCP 服务器有什么区别?”

A:

  • 子代理(Sub-Agents): 是提示词定义,通过改变 AI 的行为模式来专业化其能力
  • MCP 服务器: 是实际的工具和服务,为 AI 提供额外的功能

Sub-Agents Directory 同时提供这两种资源。

访问 contribution guidelines 了解如何提交你的子代理提示词。

是的,社区持续贡献新的子代理和改进现有提示词。定期访问网站获取最新内容。


总结: Sub-Agents Directory 是 Claude Code 用户的必备资源,无论是寻找特定技术专家还是学习如何编写高质量提示词,这个平台都能提供巨大价值。立即访问 sub-agents.directory 开启你的专业化 AI 编程之旅!

面向产品经理的 Claude Code:免费交互式课程,掌握 AI 驱动的 PM 工作流

简介:在 Claude Code 中学习 Claude Code

Section titled “简介:在 Claude Code 中学习 Claude Code”

如果让 AI 本身教你如何使用一个强大的 AI 开发工具,会怎么样?这正是 Carl Vellotti 的面向产品经理的 Claude Code课程所提供的——一门完全免费、交互式的课程,直接在 Claude Code 中运行。

Claude Code for Product Managers 课程主页,显示终端界面和 AI 代理工作流

这不是另一个视频课程或文档网站。这是一个沉浸式学习体验,Claude 会引导你完成每个模块,你通过处理真实文件来完成真实的 PM 工作。

为什么这门课程对产品经理很重要

Section titled “为什么这门课程对产品经理很重要”

Claude Code 不是聊天机器人。它是一个直接与你的文件和计算机协同工作的 AI:

  • 读取你的用户研究,编辑 PRD,分析数据
  • 并行运行 10 个实例同时处理 10 个文件
  • 在每次会话中记住关于你产品的上下文
  • 分析截图和你粘贴的模型图
  • 充当自定义 AI 审查者(工程师、高管、UX),在您与团队分享工作之前

这是集成到你实际工作流程中的 AI,而不是作为聊天窗口附加的。

**你不需要编码或终端经验。**如果你能用简单的英语描述你想要什么,你就可以使用 Claude Code。

安装 Claude Code 并克隆课程仓库。体验你第一次与实际执行任务的 AI 对话。

通过TaskFlow(你的练习公司)的实践练习掌握 Claude Code 核心能力:

  • 文件操作:直接从终端读取、写入和编辑文档
  • 并行代理:启动多个 Claude 实例同时处理文件
  • 自定义子代理:为不同视角创建专门的审查者
  • 项目记忆:使用 CLAUDE.md 维护持久上下文
  • @提及:引用文件和文件夹为 Claude 提供完整上下文
  • 图像分析:粘贴截图和模型图以获得即时反馈

将学到的所有知识应用到真实的产品经理场景:

  • 编写具有多视角反馈的 PRD
  • 分析产品数据并运行实验
  • 制定竞争战略并创建演示文稿

这门课程从头到尾都是实践性的:

模块你将做什么节省时间
1.2设置 Obsidian 进行分屏工作流——实时观看文件出现和更新-
1.3处理真实会议笔记,分析用户研究截图,创建可重用模板-
1.4启动 10 个并行代理同时处理 10 个会议50 分钟 → 5 分钟
1.5构建专门的子代理(工程师、高管、用户研究员)以获得多视角反馈-
2.1使用苏格拉底式提问、并行方法和子代理审查为 AI 功能编写完整的 PRD-
2.2分析产品漏斗,估算功能影响,在真实数据集上运行 A/B 测试分析-
2.3 **并行研究竞争对手,与魔鬼拥护者一起做出战略选择,创建高管演示文稿-

直接从终端读取、写入和编辑文档。不再需要在应用程序之间复制粘贴。

同时处理多个文件。想象一下并行分析 10 个会议记录,而不是顺序处理。

创建专门的 AI 人员角色,从不同角度审查你的工作:

  • 工程师子代理:技术可行性反馈
  • 高管子代理:战略一致性审查
  • UX 研究员子代理:用户体验验证

使用 CLAUDE.md 文件维护关于你的产品、团队惯例和工作模式的持久上下文。

引用文件和文件夹为 Claude 提供完整上下文,无需粘贴内容。

粘贴截图和模型图,以获得关于 UI/UX 决策的即时 AI 反馈。

  • Claude Pro 或 Max 订阅(20 美元/月)- 在此注册
  • Mac、Windows 或 Linux 计算机
  • 基本 PM 经验(知道 PRD 是什么)
  • 10-12 小时完成课程
  • 愿意通过实践学习

无需编码经验。无需终端经验。

这门课程是 100% 免费的,包括:

  1. 完整课程材料 - 从 GitHub 发布下载(最新:v1.0.0)
  2. 安装指南 - 在 15 分钟内安装 Claude Code
  3. 交互式课程 - 运行 /start-1-1 开始模块 1

访问 ccforpms.com 以:

  • 使用侧边栏浏览所有模块
  • 搜索特定主题
  • 在学习交互式模块时访问参考指南

Carl Vellotti 作为独立项目创建了这门课程。他正在为 PM 构建者社区制作新闻通讯和社区,地址在 The Full Stack PM

本课程及其创作者与 Anthropic 无关、未获 Anthropic 认可或赞助。Carl 是一位独立的创作者,他热爱 Claude Code,并希望帮助其他产品经理有效地学习使用这个工具。

该课程在 GitHub 上开源:github.com/carlvellotti/claude-code-pm-course

本课程采用CC BY-NC-ND 4.0许可——您可以查看并分享(需注明出处),但不允许商业使用和修改。

大多数课程通过视频或文档进行教学。这门课程在工具本身内部进行教学。你通过使用 Claude Code 来学习 Claude Code。

每个练习都基于实际的产品经理工作——编写 PRD、分析研究、制定战略。没有人为的例子。

仅并行代理工作流(在 5 分钟内处理 10 个会议而不是 50 分钟)就能立即回报时间投资。

自定义子代理框架教会你在与团队分享工作之前,从不同角度获得即时反馈。

资源格式费用交互性
面向 PM 的 Claude Code工具内交互式免费✅ 实践
Anthropic 官方文档文档免费❌ 只读
视频教程视频各异❌ 被动
博客文章文本免费❌ 只读
  • 希望利用 AI 进行日常工作的产品经理
  • 对自动化和工作流优化感兴趣的 PM
  • 任何编写 PRD、分析研究或制定战略的人
  • 喜欢实践、交互式教育的学习者
  • 寻求深度技术实现的开发人员
  • 没有 Claude Pro/Max 订阅的用户
  • 那些喜欢传统基于视频的课程的人

Claude Code 代表了产品经理与 AI 协同工作的根本性转变——不是作为附加到工作流程上的聊天机器人,而是作为与文件、数据和文档直接合作的集成伙伴。

Carl Vellotti 的课程是我发现的 PM 学习这个工具的最佳资源。它有以下特点:

  • 100% 免费
  • 交互式(在工具内学习)
  • 实用(真实 PM 场景)
  • 全面(从基础到高级工作流)

…使其成为任何希望在 2026 年提升 AI 辅助生产力的产品经理的宝贵资源。


来源:

别再对着空白终端发呆:让 Claude Code 帮你发现下一个项目

别再对着空白终端发呆:让 Claude Code 帮你发现下一个项目

Section titled “别再对着空白终端发呆:让 Claude Code 帮你发现下一个项目”

持续交付的人并不是代码写得更好。他们更擅长表达摩擦点。@damianplayer

你经历过这种情况。打开 Claude Code,准备构建一些令人惊叹的东西。你看到其他人都在发布应用、工作流、完整产品。然后…你对着空白终端发呆 20 分钟,然后关掉了它。

问题不在于你缺乏创造力。问题是你离自己的工作太近了

你已经不再注意到那些摩擦点了。

解决方案:让 Claude 为你发现机会

Section titled “解决方案:让 Claude 为你发现机会”

解决之道不是寻找更好的项目想法。而是让工具为你找到它。

Claude Code 比你更擅长识别机会。为什么?因为你深陷于日常工作流程中,无法看到模式。那些重复性任务。那些手动流程。那些你已经好几个月想要修复但一直没有做的事情。

不要模糊。要具体:

  • 你具体做什么,一步步来?
  • 你每天接触哪些工具?
  • 什么事情比应该花费的时间更长?
  • 什么事情被遗漏了?

那些重复性的东西。那些手动流程。那些你已经忍受太久以至于感觉”正常”的事情。

这些不是小烦恼——它们是机会

这是最强大的方法:

“问一些关于我工作流程的问题,直到你能提出 3 个值得构建的东西。”

让 Claude 探索。让它询问你的工具、你的流程、你的痛点。然后让它建议应该构建什么。

你离自己的问题太近了。你已经适应了摩擦。你已经建立了变通方法。你不再看到那些低效之处。

Claude 没有你的盲点。它可以看到:

  • 你忽略的模式
  • 你已经正常化的手动步骤
  • 你认为”本来就是这样”的机会

那些持续交付的人并不是代码写得更好。他们更擅长表达摩擦点

他们不是从”我应该构建一个…”开始。而是从这些开始:

  • “这个流程花费的时间太长了”
  • “我讨厌手动做这个”
  • “为什么为了这个我必须在三个工具之间切换?”

然后他们让 Claude 弄清楚该构建什么。

下次你打开 Claude Code 时,不要试图头脑风暴项目想法。相反:

  1. **从面试开始:**让 Claude 面试你关于工作流程的问题
  2. **诚实地说出什么很糟糕:**不要掩饰那些无聊、重复的部分
  3. **让 Claude 提供建议:**你可能会惊讶它识别出什么值得构建

从这里开始。描述你的摩擦点。让 Claude 做剩下的。

CLIProxyAPI:将 AI 订阅转化为通用 API 端点的神器

CLIProxyAPI:将 AI 订阅转化为通用 API 端点的神器

Section titled “CLIProxyAPI:将 AI 订阅转化为通用 API 端点的神器”

在快速演进的 AI 编码工具领域,开发者常面临一个碎片化问题:高级订阅被 OAuth 认证锁定,而许多工具和 SDK 需要标准的 API 密钥。CLIProxyAPI 优雅地解决了这个桥梁问题,将基于 OAuth 的 AI 服务转换为通用 API 端点。

CLIProxyAPI

CLIProxyAPI 是一个用 Go 编写的开源代理服务器,封装了多个 AI CLI 工具并通过标准化 API 接口对外暴露。它将您现有的 AI 订阅转化为 OpenAI/Gemini/Claude 兼容的 API,无需单独的 API 密钥。

项目地址: router-for-me/CLIProxyAPI 许可证: MIT 编程语言: Go (99.7%)

CLIProxyAPI 支持主流 AI 服务的 OAuth 认证:

  • Claude Code - 通过 OAuth 访问 Anthropic 的 Claude 模型
  • ChatGPT / OpenAI Codex - GPT 系列模型
  • Gemini CLI - 谷歌的 Gemini 模型
  • Qwen Code - 阿里通的通义千问模型
  • iFlow - 其他 AI 服务支持
  • Antigravity - 备选 AI 提供商

该代理提供与以下标准兼容的端点:

  • OpenAI API 格式
  • Gemini API 格式
  • Claude API 格式
  • Codex API 格式

这意味着您现有的 OpenAI SDK 代码无需修改即可使用——只需更改基础 URL。

  • 多账号支持,带有轮询负载均衡
  • 热重载,配置更改无需重启即可生效
  • OAuth 会话管理,自动令牌刷新
  • 模型映射,智能回退(如 claude-opus-4.5claude-sonnet-4
  • 流式和非流式响应
  • 函数调用 / 工具支持
  • 多模态输入(文本和图像)
  • 运行时配置的管理 API
  • 可嵌入的可重用 Go SDK
  • Docker 容器化支持
  • Go 1.21+(从源码构建)
  • Docker(可选,用于容器化部署)
  • 受支持 AI 服务的有效订阅
Terminal window
git clone https://github.com/router-for-me/CLIProxyAPI.git
cd CLIProxyAPI
go build -o cliproxyapi cmd/server/main.go
./cliproxyapi
Terminal window
docker run -d -p 8080:8080 router-for-me/cliproxyapi:latest

发布页面下载(提供 393 个版本)。

  1. 配置 OAuth 提供商

编辑配置文件以添加您的 OAuth 账号:

providers:
claude:
type: oauth
accounts:
- email: "your@email.com"
# OAuth 流程将提示进行身份验证
gemini:
type: oauth
accounts:
- email: "your@gmail.com"
openai:
type: oauth
accounts:
- email: "your@outlook.com"
  1. 启动服务器
Terminal window
./cliproxyapi --config config.yaml
  1. 使用标准 OpenAI SDK
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="any-key-ignored" # OAuth 处理认证
)
response = client.chat.completions.create(
model="claude-opus-4.5",
messages=[{"role": "user", "content": "你好!"}]
)

将您的 Claude Code 或 ChatGPT 订阅与仅支持 API 密钥的工具一起使用:

  • Claude Code 桌面应用
  • Cline VS Code 扩展
  • Roo Code 助手
  • Continue.dev 自动驾驶

跨多个账号分发请求以最大化使用配额:

load_balancing:
strategy: round_robin
accounts:
- account1@example.com
- account2@example.com
- account3@example.com

利用多个提供商的免费订阅:

  • 谷歌 Gemini(提供免费层)
  • Claude Code 订阅
  • OpenAI ChatGPT Plus
  1. 安全第一:管理端点默认仅绑定 localhost
  2. 模型回退:配置智能模型映射以保证可用性
  3. 监控使用情况:使用管理 API 追踪账号配额
  4. 热重载:无需服务中断即可修改配置

CLIProxyAPI 激发了丰富的配套工具生态系统:

项目描述
vibeproxy用于 Claude Code 和 ChatGPT 的原生 macOS 菜单栏应用
ProxyPal用于管理 CLIProxyAPI 配置的 macOS GUI
Quotio带有配额追踪和自动故障转移的菜单栏应用
CodMate用于 CLI AI 会话管理的 SwiftUI 应用
字幕翻译器基于浏览器的字幕翻译工具
方面CLIProxyAPI直接使用 API 密钥
成本使用现有订阅单独计费
认证方式OAuth(无需管理密钥)API 密钥管理
多提供商统一端点需要单独的 SDK
负载均衡内置需手动实现
功能CLIProxyAPI其他替代方案
OAuth 提供商支持 6+通常仅 1-2 个
开源MIT 许可证通常为专有
Go SDK可嵌入仅独立运行
文档中英文仅英文

注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”

Q: OAuth 令牌频繁过期

A: CLIProxyAPI 处理自动令牌刷新。确保您的 OAuth 凭证有效并检查系统时间同步。

Q: 模型不可用

A: 使用模型映射将不可用的模型路由到备选方案:

model_mappings:
claude-opus-4.5: claude-sonnet-4

Q: 速率限制错误

A: 启用多账号负载均衡以跨账号分发请求。

  • 管理 API 端点仅绑定到 localhost
  • OAuth 令牌安全存储
  • 切勿在没有身份验证的情况下将代理暴露到公网
  • 常规审计日志追踪所有 API 请求
  1. 检查日志:tail -f cliproxyapi.log
  2. 通过管理 API 验证 OAuth 会话
  3. 首先使用简单的 curl 命令测试
  4. 确保防火墙允许 localhost 通信

CLIProxyAPI 代表了解决 AI 服务碎片化问题的实用方案,将基于 OAuth 的订阅转化为通用 API 端点。无论您是集成编码工具、跨账号负载均衡,还是仅仅想避免 API 密钥管理,CLIProxyAPI 都提供了稳健的开源基础。

凭借活跃的开发(1,239+ 次提交)、中英文全面文档以及不断增长的配套工具生态系统,CLIProxyAPI 必将成为 AI 开发者工具箱中的重要工具。


封面图片来源:CLIProxyAPI GitHub


发布摘要 - 2026-01-04

关于 CLIProxyAPI 的博客文章已成功创建并发布,内容包括:

  • 多提供商 OAuth 集成(Claude、Gemini、ChatGPT、Qwen、iFlow)
  • 与 OpenAI/Gemini/Claude 格式的通用 API 兼容性
  • 多账号负载均衡和管理功能
  • 通过源码、Docker 或预编译二进制文件安装
  • 相关项目生态系统(vibeproxy、ProxyPal、Quotio、CodMate)
  • 安全注意事项和故障排除指南

状态:已发布至双语博客(英文/中文)

CodMate:CLI AI 工具的终极 macOS 会话管理器

如果您是一名使用基于命令行的 AI 工具(如 Claude Code、Codex 或 Gemini CLI)的开发者,您一定理解管理数百个分散会话文件的痛苦。找到上周二那个精彩的解决方案、恢复暂停的项目上下文,甚至只是回顾您完成了什么工作,都可能令人沮丧。

隆重介绍 CodMate——一款为 macOS 构建的原生 SwiftUI 应用,为您的 AI 编程带来秩序。以性能为核心设计,专为珍惜时间的开发者打造,CodMate 彻底改变了您与 AI 编程助手的交互方式。

CodMate 是一款 CLI AI 工具的会话管理器,提供:

  • 多源会话浏览,支持 Codex、Claude Code 和 Gemini CLI
  • 极速搜索,采用增量索引和缓存
  • 紧凑的三栏界面,专为高效工作流程设计
  • “交付就绪”工作流,如带 Git 变更的项目审查
  • 一键恢复/新建功能

使用 Swift 6 和 SwiftUI 构建,CodMate 利用 macOS 13.5+ API 提供真正的原生体验,支持通用二进制文件(Apple Silicon + Intel)。

CodMate 的全局搜索面板(⌘F)提供带进度/取消功能的范围搜索,以及快速列表过滤。应用使用:

  • 内存映射读取实现快速路径索引
  • 增量解析(前 ~64 行 + 尾部采样)
  • 后台丰富,使用受约束的任务组
  • 分块全文搜索(128 KB),避免加载整个文件

通过以下方式保持工作有序:

  • 项目按代码仓库分组会话
  • 任务按目标分组会话
  • 可共享的任务上下文文件,便于团队协作
  • 活动项目中新会话的自动分配

直接恢复到您首选的终端:

  • Terminal.app
  • iTerm2
  • Warp
  • 嵌入式终端(非沙盒构建版本)

CodMate 最强大的功能之一是项目审查模式,它显示:

  • 带暂存/取消暂存支持的变更文件
  • 统一差异或原始预览
  • 带AI 生成提交消息的提交界面
  • 按需代码仓库授权

CodMate 包含全面的 MCP 服务器支持:

  • 统一导入(粘贴/拖放 JSON 配置)
  • 每服务器启用切换
  • 每目标切换(Codex/Claude/Gemini)
  • 连接测试
  • 自动导出到 ~/.claude/settings.json

最新版本:0.4.2

下载 Apple Silicon 版本 | 下载 Intel Mac 版本

  • macOS 13.5 或更高版本
  • Swift 6 工具链
  • Xcode 命令行工具
  • 已安装您偏好的 AI CLI(Codex / Claude / Gemini)

CodMate 采用清洁架构原则构建:

├── models/ # 数据模型(纯类型)
├── services/ # IO + 索引 + 集成
├── views/ # SwiftUI 视图(无业务逻辑)
├── utils/ # 辅助工具
├── payload/ # 捆绑预设
├── notify/ # CLI 助手(codmate-notify)
└── SwiftTerm/ # 嵌入式终端依赖

性能亮点:

  • 持久化 SQLite 索引,实现快速启动
  • 基于 Actor 的服务,确保并发安全
  • 可取消任务,带有适当的取消保护
  • 文件 IO 优先使用内存映射数据和分块读取
快捷键操作
⌘,设置
⌘F全局搜索
⌘R刷新
⌘1切换侧边栏
⌘2切换会话列表
功能CodMate仅终端基于 Web 的替代方案
原生 macOS 性能
多 CLI 支持
可视化会话浏览
项目组织部分
Git 集成部分
离线优先
隐私(仅本地)

您记得上周生成了一个精彩的算法解决方案,但不记得在哪个会话中。使用 CodMate:

  1. 按 ⌘F 打开全局搜索
  2. 输入解决方案中的关键词
  3. 结果立即显示,带有上下文片段
  4. 点击查看完整对话

开始新工作日在项目上工作:

  1. 打开 Codette,从侧边栏选择您的项目
  2. 查看按任务分组的相关会话
  3. 在时间线中回顾昨天的进度
  4. 一键恢复,准确地从您离开的地方继续

准备好提交您的 AI 辅助变更:

  1. 打开项目审查模式
  2. 查看所有带差异的变更文件
  3. 根据需要暂存/取消暂存
  4. 使用 AI 生成描述性提交消息
  5. 无需离开应用即可提交
  • 仅限 macOS:目前没有 Windows 或 Linux 支持计划
  • CLI 依赖:需要单独安装底层 CLI 工具
  • 沙盒考虑:某些功能(嵌入式终端、直接文件访问)在沙盒构建中受限

了解 CodMate 在何处存储数据:

~/.codmate/
├── projects/ # 项目元数据
├── tasks/ # 任务元数据
├── notes/ # 会话重命名/注释
├── providers.json # 自定义提供商注册表
├── mcp-servers.json # MCP 服务器配置
└── sessionIndex-v4.db # SQLite 索引缓存

Q:CodMate 会修改我的会话文件吗?

A:不会,CodMate 只读取会话文件。注释、项目分配和其他元数据单独存储。

Q:我可以同时使用 CodMate 和多个 CLI 工具吗?

A:可以!CodMate 同时支持 Codex、Claude Code 和 Gemini CLI。

Q:我的会话数据会被发送到任何地方吗?

A:CodMate 是本地优先的。您的会话数据永远不会离开您的 Mac,除非您明确使用调用外部 API 的功能(如 AI 提交消息生成)。

Q:CodMate 如何处理大型会话文件?

A:CodMate 使用智能解析——只读取显示所需的内容,后台丰富完整内容。即使有数千个会话,也能保持 UI 快速。

CodMate 在 Apache-2.0 许可证下开源:

  • 代码仓库github.com/loocor/codmate
  • 许可证:Apache-2.0
  • 构建:仅 SwiftPM,无需 Xcode 项目
  • 语言:Swift 99.1%
Terminal window
# 克隆代码仓库
git clone https://github.com/loocor/codmate.git
cd codmate
# 构建并运行
make run
# 创建可分发的应用包
make app VER=1.0.0
# 创建已公证的 DMG
make dmg VER=1.0.0

CodMate 填补了 AI 编程工作流程中的一个关键空白,为管理我们与 AI 助手进行的数百或数千次对话提供了专业级界面。如果您在终端中使用 Claude Code、Codex 或 Gemini CLI,CodMate 是为混乱带来秩序的工具——让您专注于构建,而不是寻找上周那个完美的响应。

Agent Client:在你的 Obsidian 笔记库中直接使用 AI 编程助手

Agent Client 是一个 Obsidian 插件,将 AI 编程助手直接集成到你的知识管理工作空间中。该插件基于 Agent Client Protocol (ACP)——由 Zed 编辑器发起的开放标准——在你的个人知识库和强大的 AI 编程助手(如 Claude Code、Codex 和 Gemini CLI)之间建立了无缝连接。

Agent Client 演示

不再需要在笔记和终端之间来回切换,Agent Client 将 AI 助手集成到 Obsidian 右侧的专用面板中,将你的笔记库转变为智能开发伴侣。

在 Obsidian 内的专用右侧面板中与 AI 编程助手对话,无需离开应用。你的 AI 助手就在侧边栏中,触手可及。

使用 @notename 语法直接在对话中引用你的 Obsidian 笔记。自动包含当前笔记的内容,或手动引用特定笔记为 AI Agent 提供上下文。

使用 / 命令快速触发 Agent 操作。浏览并执行当前 Agent 提供的操作,无需输入完整提示词。

在 Claude Code、Codex、Gemini CLI 和任何 ACP 兼容的自定义 Agent 之间切换。配置多个 Agent,根据任务需求切换使用。

直接从聊天界面使用便捷的下拉菜单切换 AI 模型(如 Sonnet、Haiku、Opus)和 Agent 模式(如计划模式)。

让你的 Agent 执行 shell 命令并在聊天中内联返回结果。运行构建脚本、git 命令或任何终端操作,无需离开对话。

直接粘贴或拖放图片到聊天中随消息发送——非常适合可视化调试或 UI 相关问题。

对 Agent 操作进行细粒度控制。根据你的舒适度批准或拒绝文件读取、编辑和命令执行。

Agent提供商集成方式
Claude CodeAnthropic通过 Zed 的 SDK 适配器 (@zed-industries/claude-code-acp)
CodexOpenAI通过 Zed 的适配器 (@zed-industries/codex-acp)
Gemini CLIGoogle使用 --experimental-acp 选项
自定义各种任何 ACP 兼容的 Agent(如 OpenCode、Qwen Code)
  1. Obsidian:安装了最新版本的 Obsidian
  2. Node.js:基于 npm 的 Agent 需要(Claude Code、Codex、Gemini CLI)
    • nodejs.org 下载
    • 安装 LTS 版本(推荐)

该插件目前正在等待 Obsidian 社区插件列表的审核。在此之前,推荐使用 BRAT 安装。

  1. 从社区插件浏览器安装 BRAT 插件
  2. 在 Obsidian 设置中,导航到 社区插件 → BRAT → 添加 Beta 插件
  3. 粘贴此仓库 URL:
    https://github.com/RAIT-09/obsidian-agent-client
  4. BRAT 将下载最新版本并保持自动更新
  5. 从插件列表中启用 Agent Client
  1. GitHub Releases 下载最新版本文件:
    • main.js
    • manifest.json
    • styles.css
  2. 创建插件文件夹:VaultFolder/.obsidian/plugins/agent-client/
  3. 将下载的文件放入此文件夹
  4. Obsidian 设置 → 社区插件 中启用插件

选择你想使用的 Agent:

Claude Code:

Terminal window
npm install -g @zed-industries/claude-code-acp

Codex:

Terminal window
npm install -g @zed-industries/codex-acp

Gemini CLI:

Terminal window
npm install -g @google/gemini-cli

macOS/Linux:

/usr/local/bin/node
# 查找 Node.js 路径
which node
# 查找 Claude Code 路径
which claude-code-acp
# 示例输出: /usr/local/bin/claude-code-acp

Windows:

Terminal window
# 查找 Node.js 路径
where.exe node
# 示例输出: C:\Program Files\nodejs\node.exe
# 查找 Claude Code 路径
where.exe claude-code-acp
# 示例输出: C:\Users\Username\AppData\Roaming\npm\claude-code-acp.cmd
  1. 打开 设置 → Agent Client
  2. 使用上面找到的绝对路径配置你的 Node.js 路径
  3. 配置你偏好的 Agent:
    • 路径:输入绝对路径
    • API 密钥:可选(如果已登录相应账户)
设置:
├── Node.js 路径: /usr/local/bin/node
├── Claude Code
│ ├── 路径: /usr/local/bin/claude-code-acp
│ └── API 密钥: (可选 - 使用 Anthropic 账户)
├── Codex
│ ├── 路径: /usr/local/bin/codex-acp
│ └── API 密钥: (可选 - 使用 OpenAI 账户)
└── Gemini CLI
├── 路径: /usr/local/bin/gemini
└── API 密钥: (可选 - 使用 Google 账户)
  1. 带上下文的代码审查:在 Obsidian 中打开项目文档,使用 @notename 引用它,让 Claude Code 根据记录的需求审查你的实现。

  2. 调试会话:遇到 bug 时,截图并粘贴到 Agent Client 聊天中,让 AI Agent 分析错误,同时引用存储在笔记库中的相关错误日志。

  3. 文档生成:在构建功能时,使用聊天生成文档,Agent 读取你的代码文件——然后将输出直接保存到笔记中。

  4. 多 Agent 任务切换:使用 Claude Code 进行架构规划,切换到 Codex 进行代码生成,使用 Gemini CLI 获取不同视角——全部在同一个界面中完成。

  • 按项目组织笔记:构建你的笔记库结构,使项目特定笔记可以通过 @notename 轻松引用
  • 使用聊天导出:保存重要对话以供将来参考——Agent Client 支持导出聊天历史
  • 利用终端集成:直接从聊天运行测试和构建,立即获得反馈
  • 权限管理:从限制性权限开始,随着对 Agent 信任的增加逐步授予访问权限

注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”
  • API 密钥安全:API 密钥存储在 Obsidian 的插件设置中。如果存储敏感密钥,请启用库加密
  • 终端命令:Agent 可以执行命令——批准前请仔细审查权限
  • 文件编辑:Agent 可以修改文件——应用前请务必检查建议的更改

问:我可以同时使用多个 Agent 吗? 答:目前你可以在 Agent 之间切换,但未来的更新将包括多实例支持,可以同时运行多个 Agent。

问:这可以在移动设备上使用吗? 答:该插件为桌面版 Obsidian 设计。移动端支持取决于 Obsidian 在移动平台上的插件能力。

问:我可以使用自定义 Agent 吗? 答:可以!任何实现 Agent Client Protocol (ACP) 的 Agent 都可以在插件设置中配置。

问题:Agent 无法启动

  • 验证 Node.js 路径正确
  • 检查 Agent 是否已全局安装且可通过 whichwhere.exe 访问
  • 确保 Agent 可执行文件具有适当权限

问题:图片无法发送

  • 检查图片格式(支持 PNG、JPG)
  • 验证图片大小合理(建议 < 10MB)

问题:终端命令不工作

  • 在提示时批准终端权限
  • 在 Windows 上,考虑使用 WSL 模式以获得更好的 Unix 兼容性
功能Agent Client (Obsidian)VS Code + Claude CodeCursor AIZed Editor
知识库集成✅ 原生 (Obsidian 笔记)❌ 有限❌ 有限⚠️ 基础
多 Agent 支持✅ ACP 兼容❌ 仅 Claude❌ 仅 Cursor✅ ACP 兼容
终端集成✅ 内联✅ 原生✅ 原生✅ 原生
笔记引用✅ @notename 语法⚠️ 基础
自定义 Agent✅ 任何 ACP Agent✅ 任何 ACP Agent
平台macOS/Windows/Linux跨平台跨平台macOS/Linux

独特优势:Agent Client 与 Obsidian 知识管理的深度集成,使其非常适合在笔记库中维护大量文档、研究笔记或项目规范的开发者。

开发者已规划了几个激动人心的功能:

  • 编辑跟踪:自动跟随 Agent 的编辑——打开受影响的笔记并在编辑时移动光标
  • 聊天历史访问:浏览、搜索和恢复与 Agent 的先前聊天会话
  • 多实例支持:在独立面板中同时运行多个 Agent

Agent Client 将 Obsidian 从被动的知识仓库转变为主动的开发伴侣——让你的笔记、代码和 AI Agent 无缝协作。

Claude 圣诞日历:31 天 Claude Code 探索之旅

在十二月的每一天,我都会在 X/Twitter 和 LinkedIn 上分享一条 Claude Code 技巧。最初只是一个简单的圣诞日历,最终演变成了一张彻底改变我软件开发方式的地图。这篇文章将 31 条技巧汇编成一份全面的指南,从初学者 essentials 到高级模式重新组织,并添加了 280 字符无法涵盖的额外上下文。

无论你是刚入门还是希望进阶,这里都有适合你的内容。


在深入功能之前,先让 Claude Code 了解你的项目。

/init — 让 Claude 自助完成项目入职

Section titled “/init — 让 Claude 自助完成项目入职”

每个人都需要入职文档。使用 /init,Claude 会自己写一份。

Claude 会阅读你的代码库并生成一个 CLAUDE.md 文件,包含:

  • 构建和测试命令
  • 关键目录及其用途
  • 代码约定和模式
  • 重要的架构决策

这是我在任何新项目中运行的第一件事。

对于较大的项目,你还可以创建 .claude/rules/ 目录来存放模块化、特定主题的指令。该目录中的每个 .md 文件都会与 CLAUDE.md 一起作为项目记忆自动加载。你甚至可以使用 YAML frontmatter 根据文件路径有条件地应用规则:

---
paths: src/api/**/*.ts
---
# API 开发规则
- 所有 API 端点必须包含输入验证

CLAUDE.md 视为你的通用项目指南,把 .claude/rules/ 视为针对测试、安全、API 设计或其他任何值得单独存放的内容的专注补充。

想将某些内容保存到 Claude 的记忆中而不手动编辑 CLAUDE.md?从 Claude Code 2.0.70 开始,只需告诉 Claude 为你更新 Claude.md 文件即可。

只需告诉 Claude 记住它:

“更新 Claude.md:在此项目中始终使用 bun 而不是 npm”

保持编码流程不被打断。

@ 提及是给 Claude 提供上下文的最快方式:

  • @src/auth.ts — 即时添加文件到上下文
  • @src/components/ — 引用整个目录
  • @mcp:github — 启用/禁用 MCP 服务器

在 git 仓库中,文件建议速度约快 3 倍,并支持模糊匹配。@ 是从”我需要上下文”到”Claude 有上下文”的最快路径。


这些是你将不断使用的命令。将它们刻入肌肉记忆。

不要浪费令牌询问”你能运行 git status 吗?”

只需输入 ! 后跟你的 bash 命令:

Terminal window
! git status
! npm test
! ls -la src/

! 前缀立即执行 bash 并将输出注入上下文。无需模型处理。无延迟。无浪费令牌。无需多个终端窗口。

这看起来很小,直到你意识到你每天使用它五十次。

想尝试”如果我们……”的方法而不承诺这样做?

随心所欲。如果变得奇怪,按两次 Esc 跳回一个干净的检查点。

你可以回溯对话、代码更改,或两者兼而有之。这里需要注意的一点是,运行的 Bash 命令无法撤消。

你的过去提示是可搜索的:

操作
Ctrl+R开始反向搜索
Ctrl+R(再次)循环匹配
Enter运行它
Tab先编辑

不要重新输入。调用。这与斜杠命令无缝配合。

就像 git stash,但是用于你的提示。

Ctrl+S 保存你的草稿。发送其他内容。你的草稿会在准备好时自动恢复。

不再需要复制到草稿板。不再会在对话中途丢失你的思路。

Claude 可以预测你接下来要问什么。

完成任务后,有时你会看到一个灰色的后续建议出现:

操作
Tab接受并编辑
Enter立即接受并运行

Tab 曾经用于自动完成你的代码。现在它会自动完成你的工作流。通过 /config 切换此功能。


Claude Code 是一个持久开发环境,对其进行优化将让你能够做更多事情。

不小心关闭了终端?笔记本电脑中途死机?没问题。

Terminal window
claude --continue # 立即接续你的最后一次对话
claude --resume # 显示选择器以选择任何过去的会话

保留上下文。恢复动量。你的工作永远不会丢失。你还可以通过 cleanupPeriodDays 设置自定义会话保留时间。默认为 30 天,但你可以设置它为任意长,甚至为 0,如果你不想保留 Claude Code 会话。

你的 git 分支有名字。你的 Claude 会话也应该有。

Terminal window
/rename api-migration # 命名你当前的会话
/resume api-migration # 按名称恢复
claude --resume api-migration # 也可以从命令行工作

/resume 屏幕对分叉会话进行分组并支持键盘快捷键:P 用于预览,R 用于重命名。

在网络上开始任务,在终端中完成:

Terminal window
# 在 claude.ai/code 上,启动 Claude Code 会话
# 当你离开时它在后台运行
# 稍后,从你的终端:
claude --teleport session_abc123

这会拉取并在本地恢复会话。家内家外的 Claude。也可以通过适用于 iOS 和 Android 的 Claude 移动应用以及 Claude 桌面应用工作。

有时你需要发生事情的记录。

/export 将你的整个对话转储为 markdown:

  • 你发送的每个提示
  • Claude 给出的每个响应
  • 每个工具调用及其输出

非常适合文档编制、培训或向你的过去自己证明,是的,你确实已经尝试过这种方法。


这些功能消除了摩擦并帮助你移动得更快。

厌倦了伸手拿鼠标来编辑你的提示?

输入 /vim 并解锁完整的 vim 风格编辑:

命令操作
h j k l导航
ciw更改单词
dd删除行
w b按单词跳转
A在行尾追加

以思维速度编辑提示。几十年的 vim 使用的肌肉记忆终于在 AI 工具中得到了回报。而且,使用 Claude Code 退出 vim 比以往任何时候都容易,只需再次输入 /vim

Claude Code 在终端底部有一个可自定义的状态栏。

/statusline 让你配置那里出现的内容:

  • Git 分支和状态
  • 当前模型
  • 令牌使用情况
  • 上下文窗口百分比
  • 自定义脚本

一目了然的信息意味着减少中断来手动检查事情。

曾经想知道是什么在吃掉你的上下文窗口?

输入 /context 以准确查看你的令牌消耗的内容:

  • 系统提示大小
  • MCP 服务器提示
  • 记忆文件(CLAUDE.md)
  • 加载的技能和代理
  • 对话历史

当你的上下文开始填满时,这就是你找出它的去向的方法。

2023:"查看我的 GitHub 贡献图"
2025:"查看我的 Claude Code 统计数据"

输入 /stats 以查看你的使用模式、喜欢的模型、使用连续记录等。

橙色是新的绿色。

“我要达到限制了吗?”

Terminal window
/usage 使用视觉进度条检查你当前的使用情况
/extra-usage 购买额外容量

了解你的限制。然后超越它们。


控制 Claude 处理问题的方式。

使用单个关键字触发扩展思考:

> ultrathink: 为我们的 API 设计一个缓存层

当你在提示中包含 ultrathink 时,Claude 会在响应之前分配最多 32k 令牌进行内部推理。对于复杂的架构决策或棘手的调试会话,这可能是表面级答案和真正见解之间的区别。

过去,你可以指定 think、think harder 和 ultrathink 来分配不同数量的令牌进行思考,但我们已经将其简化为单一的思考预算。ultrathink 关键字仅在未设置 MAX_THINKING_TOKENS 时有效。当配置了 MAX_THINKING_TOKENS 时,它优先并控制所有请求的思考预算。

首先清除战争迷雾。

按两次 Shift+Tab 进入计划模式。Claude 可以:

  • 阅读和搜索你的代码库
  • 分析架构
  • 探索依赖关系
  • 起草实施计划

但在你批准计划之前它不会编辑任何内容。三思而后行。

我在 90% 的时间里默认使用计划模式。最新版本允许你在拒绝计划时提供反馈,使迭代更快。

当直接使用 Claude API 时,你可以启用扩展思考以查看 Claude 的逐步推理:

thinking: { type: "enabled", budget_tokens: 5000 }

Claude 在响应之前在思考块中显示其推理。对于调试复杂逻辑或理解 Claude 的决策很有用。


没有控制的权力只是混乱。这些功能让你可以设置界限。

"我可以运行 npm install 吗?" [允许]
"我可以运行 npm test 吗?" [允许]
"我可以查看这个文件吗?" [允许]
"我可以抚摸那只狗吗?" [允许]
×100

/sandbox 让你定义一次边界。Claude 在其中自由工作。

你可以获得具有实际安全性的速度。最新版本支持通配符语法,如 mcp__server__*,用于允许整个 MCP 服务器。

厌倦了 Claude Code 询问所有事情的许可?

Terminal window
claude --dangerously-skip-permissions

此标志对所有事情都说”是”。它的名字中有”危险”是有原因的——明智地使用它,最好是在隔离环境或受信任的操作中。

Hooks 是在预定生命周期事件运行的 shell 命令:

  • PreToolUse / PostToolUse:工具执行前后
  • PermissionRequest:自动批准或拒绝权限请求
  • Notification:对 Claude 的通知做出反应
  • SubagentStart / SubagentStop:监控代理生成

通过 /hooks 或在 .claude/settings.json 中配置它们。

使用 hooks 来阻止危险命令、发送通知、记录操作或与外部系统集成。这是对概率 AI 的确定性控制。


Claude Code 超越交互式会话。

你可以将 Claude Code 用作脚本和自动化的强大 CLI 工具:

Terminal window
claude -p "修复 lint 错误"
claude -p "列出所有函数" | grep "async"
git diff | claude -p "解释这些更改"
echo "审查此 PR" | claude -p --json

管道中的 AI。-p 标志以非交互方式运行 Claude 并直接输出到 stdout。

将任何提示保存为可重用命令:

创建一个 markdown 文件,它将成为一个可以接受参数的斜杠命令:

Terminal window
/daily-standup 运行你的晨间例程提示
/explain $ARGUMENTS /explain src/auth.ts

停止重复自己。你最好的提示值得重用。


Claude Code 可以查看和与你的浏览器交互。

Claude 现在可以直接与 Chrome 交互:

  • 导航页面
  • 点击按钮和填写表单
  • 读取控制台错误
  • 检查 DOM
  • 截图

“修复错误并验证它有效”现在就是一个提示。从 claude.ai/chrome 安装 Chrome 扩展程序。


这就是 Claude Code 变得真正强大的地方。

圣诞老人不是自己包装每份礼物。他有精灵。

子代理是 Claude 的精灵。每一个:

  • 获得自己的 200k 上下文窗口
  • 执行专门任务
  • 与其他任务并行运行
  • 将输出合并回主代理

像圣诞老人一样委派。子代理可以在你继续工作时在后台运行,并且它们拥有对 MCP 工具的完全访问权限。

技能是指令、脚本和资源的文件夹,用于教授 Claude 专业任务。

它们打包一次,随处可用。而且由于代理技能现在是一个开放标准,它们可以在任何支持它们的工具中工作。

将技能视为按需授予 Claude 专业知识。无论是你公司特定的部署流程、测试方法还是文档标准。

还记得分享你的 Claude Code 设置意味着跨 12 个目录发送 47 个文件吗?

那个时代已经结束了。

Terminal window
/plugin install my-setup

插件将命令、代理、技能、hooks 和 MCP 服务器捆绑到一个包中。通过市场发现新的工作流,其中包括搜索过滤以便于发现。

语言服务器协议(LSP)支持为 Claude 提供 IDE 级别的代码智能:

LSP 集成提供:

  • 即时诊断:Claude 在每次编辑后立即看到错误和警告
  • 代码导航:转到定义、查找引用和悬停信息
  • 语言感知:代码符号的类型信息和文档

Claude Code 现在以 IDE 的方式理解你的代码。

为 Claude Code 提供支持的相同代理循环、工具和上下文管理现在可以作为 SDK 使用。构建像 Claude Code 一样工作的代理,只需 10 行代码:

import { query } from "@anthropic-ai/claude-agent-sdk";
for await (const msg of query({
prompt: "为 src/ 中的所有公共函数生成 markdown API 文档",
options: {
allowedTools: ["Read", "Write", "Glob"],
permissionMode: "acceptEdits",
},
})) {
if (msg.type === "result") console.log("文档已生成:", msg.result);
}

这仅仅是个开始。


快捷键操作
!command立即执行 bash
Esc Esc回溯对话/代码
Ctrl+R反向搜索历史
Ctrl+S暂存当前提示
Shift+Tab(×2)切换计划模式
Alt+P / Option+P切换模型
Ctrl+O切换详细模式
Tab / Enter接受提示建议
命令目的
/init为你的项目生成 CLAUDE.md
/context查看令牌消耗
/stats查看你的使用统计
/usage检查速率限制
/vim启用 vim 模式
/config打开配置
/hooks配置生命周期 hooks
/sandbox设置权限边界
/export将对话导出为 markdown
/resume恢复过去的会话
/rename命名当前会话
/theme打开主题选择器
/terminal-setup配置终端集成
标志目的
-p "prompt"无头/打印模式
--continue恢复上次会话
--resume选择要恢复的会话
--resume name按名称恢复会话
--teleport id恢复网络会话
--dangerously-skip-permissionsYOLO 模式

当我开始这个圣诞日历时,我以为我只是在分享技巧。但现在回顾这 31 天,我看到了更多的东西:一种人机协作的哲学。

Claude Code 中最好的功能是给你控制权。计划模式。代理技能。Hooks。沙盒边界。会话管理。这些是与 AI 协作的工具,而不是向它投降。

从 Claude Code 中获得最多收益的开发人员不是那些输入”为我做一切”的人。他们是那些学会了何时使用计划模式、如何构建他们的提示、何时调用 ultrathink 以及如何设置 hooks 以在错误发生之前捕获错误的人。

AI 是一个杠杆。这些功能帮助你找到正确的抓地力。

致 2026 年。


最初由 Ado Kukic 发布,题为”Advent of Claude: 31 Days of Claude Code”,发布于 adocomplete.com

有喜欢的 Claude Code 功能吗?在 Twitter 上告诉我们或在 Claude Code 仓库 上提出问题。

Boris Cheny 的 Claude Code 工作流揭秘:并行运行 15-20 个 Opus 4.5 实例

Boris Cheny 的 Claude Code 工作流揭秘:并行运行 15-20 个 Opus 4.5 实例

Section titled “Boris Cheny 的 Claude Code 工作流揭秘:并行运行 15-20 个 Opus 4.5 实例”

“我是 Boris,也是 Claude Code 的创作者。很多人问我如何使用 Claude Code,所以我想展示一下我的工作配置。”

— Boris Cherny,2026年1月2日

当 Claude Code 的创造者分享他的个人工作流时,开发社区都会密切关注。Boris Cherny 最近揭示了他看似”朴素”却高度精密的 AI 辅助开发生产力最大化方法。

Boris 工作流的核心是两个基本理念:

  1. 复利思维 - CLAUDE.md 不是一次性文档,而是通过日常工作、代码审查和问题发现持续积累的知识库
  2. 验证循环 - 验证能使输出质量提升 2-3 倍,这解决了当前 AI 编程的核心局限:AI 擅长写代码,但不知道代码是否真的可用、用户体验是否好

Boris 强调:“一个好的计划就是成功的一半”,在切换到自动接受模式执行之前,他会投入大量时间进行前期规划。

多实例并行:同时运行 15-20 个 Claude 实例

Section titled “多实例并行:同时运行 15-20 个 Claude 实例”

Boris 的工作站至少同时运行 15 个 Claude 实例

环境实例数用途
终端(iTerm2)5 个标签页编号 1-5,使用系统通知管理注意力
浏览器5-10 个标签页claude.ai/code 会话
传送双向使用 & 将本地会话传送到网页,--teleport 跨会话移动

这种并行工作流让 Boris 能够同时推进多个任务,有效地编排一个 AI 代理的智能矩阵。

模型策略:独占 Opus 4.5 with thinking 模式

Section titled “模型策略:独占 Opus 4.5 with thinking 模式”

Boris 只使用 Opus 4.5 并开启 thinking 模式。他的理由反直觉但经过验证:

“虽然 Opus 更大更慢,但因为理解能力强、工具使用准确,最后反而比用小模型更快。不需要反复纠正和引导,一次就能做对,这才是真正的效率。”

较大模型的前期成本通过减少迭代周期和更高的首遍输出质量得到回报。

团队知识库:Git 中共享的 CLAUDE.md

Section titled “团队知识库:Git 中共享的 CLAUDE.md”

Claude Code 团队维护一个提交到 Git 的共享 CLAUDE.md 文件,每位团队成员每周都会更新。逻辑很简单:

“只要看到 Claude 做错了什么,就写进 CLAUDE.md。下次 Claude 就知道不要这么做。”

这将团队编码规范和集体经验转化为 AI 可访问的知识,创建了一个飞轮效应:

  • 每次代码审查都改进 CLAUDE.md
  • 改进的 CLAUDE.md 自动提升后续代码质量
  • 知识随时间复利增长

在代码审查时,Boris 会在同事的 PR 上使用 @.claude 标签,指示 Claude 将发现的问题添加到 CLAUDE.md。这通过 Claude Code 的 GitHub Action 实现(通过 /install-github-action 安装)。

这是他们版本的**“复利工程”**——每次代码审查都在系统性地改进知识库,而知识库又自动提升未来的代码质量。

大多数会话都以 Plan 模式开始(按两次 Shift+Tab 激活)。Boris 与 Claude 反复讨论,直到对计划满意,然后切换到自动接受编辑模式,Claude 通常能一次性完成实现。

这种模式强化了原则:在规划上投入,在执行上自信。

Slash Commands:内部循环工作流自动化

Section titled “Slash Commands:内部循环工作流自动化”

Boris 将每天重复多次的”内部循环”工作流转换为slash commands,存储在 .claude/commands/ 目录下并提交到 Git:

  • 消除重复的提示词工程
  • Claude 自己也可以调用这些命令
  • 团队范围内的工作流标准化
  • 示例:/verify 命令用于验证工作流

Boris 工具包中的关键 subagents:

Subagent用途
code-simplifier在 Claude 完成工作后简化代码
verify-app包含端到端测试 Claude Code 的详细指令

Subagents 本质上就是自动化最常见的工作流,确保每个 PR 都通过标准化的质量检查。

Post-Tool-Use Hook:自动格式化代码

Section titled “Post-Tool-Use Hook:自动格式化代码”

团队使用 Post-Tool-Use hook 自动格式化 Claude 生成的代码。由于 Claude 通常生成的代码格式就很好,hook 只处理最后 ~10%,避免 CI 格式错误,同时保持代码风格一致性。

Boris 不使用 --dangerously-skip-permissions。相反,他使用 /permissions 预先允许环境中常见的安全 bash 命令,避免不必要的权限提示,同时保持安全意识。

配置存储在 .claude/settings.json 中,并通过 Git 与团队共享。

Claude Code 集成了 Boris 的整个工具链:

工具集成方式用例
SlackMCP server搜索和发布消息
BigQuerybq CLI运行查询进行分析
Sentry直接集成获取错误日志

Slack MCP 配置(.mcp.json)也通过 Git 提交供团队共享。

长时间任务:后台代理和 Stop Hook

Section titled “长时间任务:后台代理和 Stop Hook”

对于特别长的任务,Boris 有几种方法:

  1. 后台代理在完成时验证工作
  2. Agent Stop hook 更确定性地进行验证
  3. Ralph-Wiggum 插件(Geoffrey Huntley 最初构想)
  4. 沙盒模式使用 --permission-mode=dontAsk--dangerously-skip-permissions 实现不间断工作

最关键的洞察:给 Claude 验证反馈

Section titled “最关键的洞察:给 Claude 验证反馈”

Boris 最重要的见解:

“最重要的是给 Claude 一个验证工作的方法。有了这个反馈循环,最终结果的质量能提升 2-3 倍。”

Claude Code 团队使用 Claude Chrome 扩展测试每个改动。Claude 会打开浏览器,测试 UI,然后迭代直到代码能跑、用户体验也好。

验证方法因领域而异——可能就是运行一个 bash 命令,或者运行测试套件,或者在浏览器或手机模拟器里测试应用——但投入精力把这个做扎实是普遍适用的。

1. 在 Plan 模式启动会话(Shift+Tab ×2)
2. 与 Claude 讨论方法,直到计划稳固
3. 切换到自动接受模式进行实现
4. 使用 verify subagent 进行测试
5. 运行 code-simplifier 进行清理
6. 如果发现问题,将学习内容添加到 CLAUDE.md
7. 提交并重复
实践好处
从 Plan 模式开始减少 50%+ 的返工
使用 Opus 4.5 thinking更高质量的首遍输出
投资验证2-3 倍质量提升
维护共享的 CLAUDE.md团队知识复利增长
通过 slash commands 自动化跨会话一致性
使用 @.claude 代码审查持续知识改进
陷阱解决方案
跳过验证始终实现验证反馈循环
不更新 CLAUDE.md将每个问题视为学习机会
使用小模型节省 tokenOpus 4.5 由于更少迭代反而更快
孤立的知识孤岛将 CLAUDE.md 提交到 Git 供团队共享
忽略代码审查学习使用 @.claude 自动捕获见解
方面Boris 的方法传统 AI 编码
模型选择专一使用 Opus 4.5混合模型节省成本
规划重度前期投入(Plan 模式)直接跳到编码
知识捕获系统性(CLAUDE.md)临时或不捕获
验证内置反馈循环仅手动测试
团队扩展Git 中的共享配置个人设置
并行性15-20 个实例1-2 个实例

Boris Cherny 的 Claude Code 工作流展示了最大生产力来自于

  1. 复利思维 - 知识随时间积累并复利增长
  2. 验证循环 - 质量反馈将输出提升 2-3 倍
  3. Opus 4.5 专一性 - 更大的模型整体更快
  4. 并行执行 - 15-20 个实例同时工作
  5. 共享知识库 - 通过 Git 同步的 CLAUDE.md 实现团队学习

这个配置可能在设置上”出奇地朴素”,但方法论代表了对 AI 辅助开发的精密重新思考——从单次交互转变为持续学习、并行处理、验证驱动的开发生态系统。


“生产力的粒度已经被完全改变。过去,我们在讨论如何写好一个函数,而 Boris 在讨论如何调度由 20 个 Opus 4.5 组成的智能矩阵。”

— 码上盈 | AI陪你做生意

Claude Code in Action 官方课程评测:掌握 Anthropic 的 AI 命令行工具

2026 年 1 月,Anthropic 发布了 Claude Code in Action — 这是一门综合性官方课程,旨在教开发者如何充分发挥 Claude Code 的强大功能,这是他们推出的命令行 AI 助手。该免费课程可在 Anthropic SkilljarCoursera 上访问,它架起了基础 AI 辅助与专业级 AI 驱动开发工作流之间的桥梁。

“本课程介绍 Claude Code,这是一款使用语言模型执行开发任务的命令行 AI 助手。” — Anthropic

  • 格式: 带视频内容的免费在线课程
  • 平台: Anthropic Skilljar / Coursera
  • 内容: 15 个讲座,约 1 小时的视频内容
  • 级别: 初级到中级开发者
  • 先修要求: 基本的 CLI 熟悉度和 Claude Code 访问权限

该课程承诺教你:

  • 使用 Claude Code 的核心工具进行文件操作、命令执行和代码分析
  • 使用 /initCLAUDE.md 文件和 @ 提及有效管理上下文
  • 使用热键和命令控制对话流程
  • 为复杂任务启用计划模式和思考模式
  • 创建自定义命令以自动化工作流
  • 通过 MCP 服务器扩展功能
  • 设置 GitHub 集成以进行 PR 审查
  • 编写自定义钩子以扩展行为

课程首先建立了 AI 编码助手如何工作的心智模型:

  • LLM 如何理解和操作代码
  • 工具系统架构
  • 对话管理模式
  • 上下文窗口考虑因素

实用指导包括:

  • 安装 Claude Code
  • API 密钥配置
  • 初始设置工作流
  • 理解 CLI 界面

文件操作:

  • 具有上下文感知的读取文件
  • 精确编辑代码
  • 跨代码库搜索
  • 多文件操作

命令执行:

  • 安全运行 shell 命令
  • 解释命令输出
  • 链式操作
  • 错误处理

代码分析:

  • 理解代码结构
  • 识别模式
  • 重构建议
  • 代码审查辅助

最关键的部分之一涵盖:

/init 命令:

  • 自动项目发现
  • 生成项目文档
  • 创建知识库

CLAUDE.md 文件:

  • 项目特定指令
  • 团队约定
  • 编码标准
  • 架构文档

@ 提及:

  • 直接引用文件
  • 作用域上下文加载
  • 选择性包含

热键和命令:

  • 导航快捷键
  • 模式切换
  • 中断和恢复
  • 状态管理

计划模式:

  • 何时使用它
  • 与正常操作的区别
  • 规划会话的最佳实践

思考模式:

  • 深度分析工作流
  • 复杂问题解决
  • 多步推理

创建可重用的工作流自动化:

  • 命令定义语法
  • 参数处理
  • 输出格式化
  • 跨团队共享命令

模型上下文协议(MCP)生态系统:

  • 什么是 MCP 服务器
  • 可用的社区服务器
  • 浏览器自动化功能
  • 数据库集成
  • API 连接

热门 MCP 服务器:

  • GitHub: PR 审查、问题管理
  • Browser: Web 自动化、抓取
  • Database: 查询接口
  • FileSystem: 扩展文件操作

自动化仓库工作流:

  • 自动化 PR 审查
  • 问题分类
  • 提交消息生成
  • 仓库文档

扩展 Claude Code 行为:

  • PreToolUse: 工具执行前的操作
  • PostToolUse: 工具执行后的操作
  • UserPromptSubmit: 提示处理
  • Stop: 退出时清理

课程强调,有效的上下文管理是高效使用 Claude Code 最重要的技能。/init 命令和 CLAUDE.md 文件不是便利功能 — 它们是必不可少的工具。

初学者被鼓励:

  • 从基本文件操作开始
  • 先学习核心热键
  • 逐步采用高级功能
  • 有机地构建自定义命令

MCP 生态系统将 Claude Code 从一个能干的助手转变为一个可扩展的平台。课程只是展示了社区服务器可能实现的冰山一角。

对于团队和高级用户,钩子是让 Claude Code 无缝融入现有开发工作流的秘诀。

方面自学完成课程后
上下文管理基本文件读取结构化 /init + CLAUDE.md
命令临时提示可重用自定义命令
集成手动复制粘贴MCP + GitHub 自动化
工作流线性对话热键驱动控制
可扩展性未知完全理解钩子
  • Claude Code 新手开发者
  • 采用 Claude Code 的团队
  • 感觉自己未充分利用工具的用户
  • 任何想要构建自定义集成的人
  • 高级 Claude Code 用户(可能太基础)
  • 期望深入 LLM 理论的人(这是实用课程)
  • 没有 CLI 经验的开发者

完成课程后,你可以立即:

  1. 设置正确的项目上下文 — 停止粘贴代码,使用 /init
  2. 创建自定义命令 — 自动化重复性工作流
  3. 有效使用热键 — 流畅控制对话
  4. 添加 MCP 服务器 — 扩展功能
  5. 编写简单钩子 — 自定义行为
  1. 每日练习 — 将 Claude Code 用于实际工作
  2. 探索 MCP 服务器 — 查看 MCPmarket
  3. 加入社区Reddit r/ClaudeAI
  4. 构建自定义命令 — 与团队分享
  5. 实验钩子 — 适应你的工作流
  • 高级提示技术 — 几乎没有涉及提示工程
  • 多智能体编排 — 没有覆盖智能体系统
  • 企业部署 — 缺少团队扩展策略
  • 性能优化 — 仅涵盖基本的令牌管理
  • 高级 MCP 模式 — 未涵盖服务器创建

为了填补这些空白,可以考虑:

Terminal window
# 1. 初始化项目上下文
cd my-project
claude-code /init
# 2. 开始功能任务
claude-code
# 提示: "使用 /auth-command 添加用户认证"
# 3. 使用热键进入计划模式
# 审查架构,创建任务列表
# 4. 使用思考模式执行复杂逻辑
# 钩子在提交前触发检查
# 5. GitHub 集成自动创建 PR
# MCP 服务器更新文档

Claude Code in Action 是一门结构良好、实用的 Anthropic AI 编码助手入门课程。它不会让你一夜之间成为专家,但它提供了在专业开发工作流中有效使用 Claude Code 所需的基础。

价值评分: ⭐⭐⭐⭐☆ (4/5)

  • 初学者: 必要的起点
  • 中级用户: 适合填补知识空白
  • 专家: 可能觉得基础

该课程是免费的,大约需要一小时,并能提供实际价值。如果你正在使用 Claude Code 但感觉缺少某些功能,这门课程很可能会解锁你不知道存在的功能。

“学习 Claude Code 的最好方法是使用 Claude Code 来学习 Claude Code。” — 课程哲学


来源:

Claude HUD:Claude Code 实时会话状态监控插件

一句话总结: Claude HUD 是由 jarrodwatts 开发的 Claude Code 插件,可在输入区域下方实时显示会话信息——上下文使用量、工具活动、代理状态和任务进度,无需额外窗口,每约 300 毫秒更新一次。


在使用 Claude Code 时,你是否曾遇到这样的疑问:

  • 我的上下文还剩多少空间?
  • 哪个子代理正在执行什么任务?
  • Claude 都在用哪些工具?

Claude HUD 可以一眼回答所有这些问题。它是一个平视显示器(HUD),始终显示在输入区域下方,让你清楚地了解 Claude Code 会话中正在发生的一切。


Claude HUD 是一个扩展 Claude Code 状态栏 API 的插件,提供实时会话可见性。它的工作原理是:

  1. 读取 Claude Code 的原生令牌数据(非估算值)
  2. 从会话记录中解析工具/代理活动
  3. 每约 300 毫秒更新一次显示

核心优势: 与外部监控工具不同,Claude HUD 使用 Claude Code 内置的状态栏 API——这意味着它可以在任何终端中工作,无需单独的窗口或 tmux 设置,直接从源头显示准确数据。


在 Claude Code 实例中运行:

Terminal window
# 第一步:添加市场源
/plugin marketplace add jarrodwatts/claude-hud
# 第二步:安装插件
/plugin install claude-hud
# 第三步:配置状态栏
/claude-hud:setup

完成!HUD 立即出现——无需重启。


[Opus 4.5] ████░░░░░░ 19% | 2 CLAUDE.md | 8 rules | 6 MCPs | 6 hooks | ⏱️ 1m
元素描述
模型当前使用的模型(如 Opus 4.5、Sonnet 4)
上下文条带颜色编码的可视化进度条(绿→黄→红)
配置计数已加载的 CLAUDE.md 文件、规则、MCP 和钩子数量
时长会话已运行的时间
✓ TaskOutput ×2 | ✓ mcp_context7 ×1 | ✓ Glob ×1 | ✓ Skill ×1
  • 运行中的工具显示带有目标文件的旋转图标
  • 已完成的工具按类型聚合并显示计数
✓ Explore: Explore home directory structure (5s)
✓ open-source-librarian: Research React hooks patterns (2s)

显示代理类型、当前任务和已用时间。

✓ All todos complete (5/5)
  • 当前任务或完成状态
  • 进度计数器(已完成/总数)

使用场景Claude HUD 的帮助
上下文管理在自动压缩发生前看到上下文填充情况
代理调试精确了解每个子代理在做什么
性能监控识别哪些工具被调用最频繁
任务跟踪无需询问即可实时观看任务完成进度

在使用过程中观察上下文条。当它接近约 80% 时,考虑:

  • 使用 /compact focus: "当前任务" 来修剪不必要的历史记录
  • 检查哪些文件消耗了最多令牌
  • 要求 Claude 总结长对话

使用多代理工作流时,Claude HUD 帮助你:

  • 查看哪些代理同时运行
  • 识别是否有代理卡住(已用时间持续增长)
  • 理解并行执行流程

久而久之,你会注意到一些模式:

  • 你最常使用哪些工具
  • 某些操作是否会触发级联工具调用
  • 优化工作流程的机会

功能Claude HUD/contextccstatusline
实时更新✓ 每约 300 毫秒手动命令每约 1 秒
代理跟踪
任务进度
上下文细分进度条详细分段进度条
安装方式内置插件原生命令外部工具
终端要求任意终端任意终端需要 tmux

注意: 这些工具互为补充。使用 Claude HUD 进行快速监控,使用 /context 进行详细诊断。


  • Claude Code v1.0.80+
  • Node.js 18+ 或 Bun
  • 插件市场访问权限

  1. 验证 Claude Code 版本:claude --version
  2. 再次运行 /claude-hud:setup
  3. 检查插件是否已安装:/plugin list
  • 进度条使用 Claude Code 的原生令牌数据
  • 与账单数据略有差异是正常的
  • 使用 /context 获取详细细分
  • 这可能表示代理卡住了
  • 考虑中断并重试任务
  • 检查代理的输入是否存在潜在问题

Claude Code → stdin JSON → claude-hud → stdout → 显示在终端
↘ 记录 JSONL(工具、代理、任务)
  • 令牌数据:Claude Code 原生状态栏 API
  • 工具活动:从会话记录解析
  • 代理状态:任务跟踪元数据
  • 任务进度:TodoWrite 工具结果

Terminal window
git clone https://github.com/jarrodwatts/claude-hud
cd claude-hud
npm ci && npm run build
npm test

详见 CONTRIBUTING.md


自安装 Claude HUD 以来:

  • 减少上下文焦虑:不再有意外压缩
  • 更快调试:可以立即看到哪个代理卡住了
  • 更好的会话管理:知道何时结束和总结

Claude HUD 是一个小插件,却有着大影响:它让不可见变为可见。通过实时显示上下文使用量、工具活动、代理状态和任务进度,它为你提供了有效使用 Claude Code 所需的态势感知。

无论你是代理的重度用户、处理大型代码库,还是只是想要更好的会话可见性,Claude HUD 都值得一试。

立即安装:

Terminal window
/plugin marketplace add jarrodwatts/claude-hud
/plugin install claude-hud
/claude-hud:setup

Claudian:将 Claude Code 嵌入为 Obsidian 侧边栏聊天界面的插件

TL;DR: YishenTu 开发的 Claudian 将 Claude Code 嵌入为 Obsidian 的侧边栏聊天界面,让你的知识库具备完整的智能体能力——文件读写、bash 命令、视觉支持、MCP 服务器以及多步骤工作流——同时与你的笔记无缝集成。


如果你像我一样,Obsidian 知识库不仅仅是笔记应用——它是你的第二大脑、项目中心、知识库。现在想象一下,在这个工作空间中直接拥有 Claude Code 的完整 AI 智能体能力。

这正是 Claudian 所提供的。它是一个 Obsidian 插件,将 Claude Code 嵌入为侧边栏聊天界面,让你的知识库成为 Claude 的工作目录,具备完整的智能体能力。

为什么这很重要: 与传统的聊天机器人或简单的 AI 助手不同,Claudian 赋予了 Claude 实际的自主性——它可以读取、写入和编辑你知识库中的文件,执行 bash 命令,使用工具,运行多步骤工作流,甚至通过 MCP 连接到外部服务。同时,它始终对你的笔记保持上下文感知。


Claudian 是一个基于 Claude Agent SDK 构建的 Obsidian 插件,将 Claude Code 的能力直接带入你的 Obsidian 工作空间。可以把它理解为:

  • 侧边栏聊天: 点击机器人图标或使用命令面板在侧边栏打开 Claude
  • 完整的智能体能力: Claude 可以在你的知识库中读取/写入文件、运行 bash 命令、执行多步骤工作流
  • 上下文感知: 自动附加当前关注的笔记,支持 @提及文件,包含选中的文本
  • 视觉支持: 通过拖放、粘贴或文件路径分析图像
  • 可扩展: 支持斜杠命令、自定义指令、技能和 MCP 服务器

核心洞察: 这不仅仅是聊天界面——这是在你的 Obsidian 中运行的 Claude Code,你的知识库就是它的工作目录。


在 Obsidian 知识库中充分利用 Claude Code 的强大功能:

能力描述
文件操作读取、写入和编辑知识库中的文件
Bash 命令执行 shell 命令,具有审批安全机制
多步骤工作流Claude 可以规划并执行复杂任务
工具使用完整访问 Claude 的工具生态系统

Claudian 使 Claude 能够感知你的工作上下文:

  • 自动附加当前笔记: 你正在查看的笔记会自动作为上下文包含
  • @提及文件: 输入 @ 附加知识库中的其他文件
  • 选择感知: 选中的文本会自动包含在对话中
  • 图像支持: 拖放、粘贴或通过路径引用图像
  • 外部目录: 配置上下文路径以获取知识库外的只读访问
  • 按标签排除: 防止敏感笔记自动加载

在编辑器中选择文本并使用热键直接用 Claude 编辑:

  • 词级差异预览精确显示更改内容
  • 只读工具访问提供上下文而不进行修改
  • 单击应用更改

创建由 /command 触发的可重用提示模板:

  • 参数占位符(例如 {topic}
  • 用于上下文的 @file 引用
  • 可选的内联 bash 替换
  • 每个命令覆盖模型和允许的工具

直接从聊天输入添加自定义指令:

  • 输入 # 进入指令模式
  • 即时优化系统提示
  • 在模态框中查看和编辑

通过模型上下文协议连接外部工具和数据源:

  • 传输类型: stdio、SSE、HTTP
  • 上下文保存模式: 使用 @server-name 启用
  • @提及激活: 内联触发 MCP 服务器
  • Claude Code 兼容: 与 Claude Code 共享配置
  • 模型选择: Haiku、Sonnet 或 Opus
  • 自定义模型: 通过环境变量配置
  • 思考预算: 微调扩展思考令牌
  • 上下文仪表: 实时上下文窗口使用显示

在实现之前切换到只读探索模式:

  • Shift+Tab 进入计划模式
  • Claude 在不更改的情况下探索代码库
  • 呈现计划供你审批
  • 确认后实施
  • 权限模式: YOLO(绕过提示)或安全(需要审批)
  • 安全黑名单: 阻止危险的 bash 命令
  • 知识库限制: 文件工具限制在知识库内,具有符号链接安全检查
  • 导出路径例外: 允许写入指定目录(例如 ~/Desktop

选项 1:从发布版本安装(推荐)

Section titled “选项 1:从发布版本安装(推荐)”
  1. GitHub Releases 下载最新版本
  2. 在你的知识库插件文件夹中创建一个名为 claudian 的文件夹:
/path/to/vault/.obsidian/plugins/claudian/
  1. main.jsmanifest.jsonstyles.css 复制到文件夹中
  2. 在 Obsidian 中启用:设置 → 社区插件 → 启用”Claudian”
Terminal window
cd /path/to/vault/.obsidian/plugins
git clone https://github.com/YishenTu/claudian.git
cd claudian
npm install
npm run build

然后在 Obsidian 设置中启用插件。


要求详细说明
Claude Code CLI必须安装(SDK 在内部使用)
Obsidian版本 1.8.9 或更高
Claude 访问权限Claude 订阅/API 或自定义提供商(OpenRouter、Kimi、GLM、DeepSeek 等)
平台仅桌面版(macOS、Linux、Windows)

有两种方式开始聊天:

  1. 点击功能区中的机器人图标
  2. 使用命令面板Cmd/Ctrl + P)并搜索”Claudian”
操作方法
附加当前笔记聊天打开时自动包含
附加其他文件输入 @ 后跟文件名
按文件夹过滤输入 @folder/ 查看该目录中的文件
启用 MCP 服务器输入 @server-name 用于上下文保存 MCP
包含选择内容打开聊天前选择文本
添加图像拖放、粘贴或输入文件路径
  1. 在编辑器中选择文本
  2. 使用配置的热键
  3. Claude 编辑并显示差异预览
  4. 应用或放弃更改

在聊天输入中输入 / 查看可用命令。在设置 → 斜杠命令中创建新命令。

输入 # 添加自定义指令,修改当前会话的系统提示。


设置描述
命令黑名单阻止危险的 bash 命令(默认:rm -rfchmod 777 等)
允许的导出路径知识库外的文件导出路径(默认:~/Desktop~/Downloads
上下文路径用于只读访问的外部目录
排除标签防止笔记自动加载的标签
媒体文件夹知识库存储附件以进行图像嵌入的位置
自定义系统提示附加到默认提示的其他指令
权限模式YOLO(无提示)或安全(需要审批)
环境变量Claude SDK 的自定义环境变量(KEY=VALUE 格式)
MCP 服务器添加/编辑/测试/删除 MCP 服务器配置

数据以分布式格式存储(类似 Claude Code):

vault/.claude/
├── settings.json # 用户设置和权限
├── mcp.json # MCP 服务器配置
├── commands/*.md # 斜杠命令作为 Markdown
└── sessions/*.jsonl # 聊天会话(每个对话一个)
.obsidian/plugins/claudian/
├── data.json # 机器状态(活动对话)
└── .claudian-cache/
└── images/ # 图像缓存(SHA-256 去重)

src/
├── main.ts # 插件入口点
├── core/ # 核心基础设施
│ ├── agent/ # Claude Agent SDK 包装器
│ ├── hooks/ # PreToolUse/PostToolUse 钩子
│ ├── images/ # 图像缓存和加载
│ ├── mcp/ # MCP 服务器配置管理
│ ├── prompts/ # 智能体的系统提示
│ ├── sdk/ # SDK 消息转换
│ ├── security/ # 审批、黑名单、路径验证
│ ├── storage/ # 分布式存储系统
│ ├── tools/ # 工具常量和实用程序
│ └── types/ # 类型定义
├── features/ # 功能模块
│ ├── chat/ # 主聊天视图
│ ├── inline-edit/ # 内联编辑服务
│ ├── mcp/ # MCP @提及检测
│ └── settings/ # 设置选项卡
├── ui/ # UI 组件
│ ├── components/ # 输入工具栏、下拉菜单
│ ├── modals/ # 审批、内联编辑、指令模态框
│ ├── renderers/ # 思考块、工具调用、差异
│ └── settings/ # 环境片段、MCP 设置、斜杠命令
├── utils/ # 实用工具函数
└── style/ # 模块化 CSS(→ styles.css)

Claudian 实现了多层安全保护:

  1. 知识库限制: 文件工具和 Bash 命令限制在知识库目录内
  2. 路径验证: 使用 realpath 防止符号链接逃逸
  3. 命令黑名单: 平台特定的危险命令模式
  4. 审批系统: 安全模式需要每次工具调用审批
  5. 导出路径: 对外部路径的写入操作是显式且可配置的
  6. 上下文路径: 对外部目录的只读访问
  7. 无遥测: 除了配置的 API 提供商外,没有额外的跟踪

该插件正在积极开发中,拥有广泛的路线图:

  • 会话内持久化
  • 跨重启的聊天历史持久化
  • 带有历史下拉菜单的对话切换
  • 文件上下文感知
  • 扩展思考显示
  • 模型选择
  • 权限模式(YOLO/安全)
  • 图像支持
  • 内联编辑功能
  • 斜杠命令
  • 指令模式
  • 技能支持
  • 上下文路径
  • 分布式存储
  • Windows 支持
  • MCP 服务器支持
  • 计划模式
  • 自动标题生成
  • 钩子和其他高级功能

功能ClaudianCopilotChatGPT Web
知识库内文件读写
Bash 命令执行
多步骤工作流有限
上下文感知✅(自动)✅(代码)
视觉支持
可扩展(MCP/技能)
自定义模型支持
离线工作部分

  1. 安装 Claude Code CLI(如果尚未安装)
  2. 使用上述方法之一安装 Claudian
  3. 在 Claudian 设置中配置 API 密钥
  4. 打开聊天并尝试:"分析我当前的笔记并建议改进"
  5. 使用 Shift+Tab 探索计划模式进行只读探索

Claudian 代表了 AI 辅助知识工作的重要进步。通过将 Claude Code 的完整智能体能力带入 Obsidian,它将你的知识库从静态笔记存储转变为交互式工作空间,Claude 可以在其中读取、写入、分析和协作——同时对你工作保持深度上下文感知。

无论你是在编写文档、管理项目还是构建知识库,Claudian 都提供了一种与 AI 合作的强大新方式,感觉自然、集成且真正有用。

仓库地址: github.com/YishenTu/claudian

许可证: MIT


Oh My OpenCode:Claude Code 的强化版——终极 AI 智能体工具

在快速发展的 AI 开发工具领域,OpenCode 作为商业 AI 编程助手的开源替代方案脱颖而出。但如果你是一个热爱定制化和追求极致控制能力的黑客,Oh My OpenCode 这款插件将把 OpenCode 转变为非凡的存在。

Oh My OpenCode

Oh My OpenCode 由开发者 code-yeongyu 创建,他在使用各种 AI 工具进行个人开发时花费了价值 24,000 美元的 token。这款插件代表了无数小时测试、配置和实际使用的经验结晶。它被作者描述为”打了类固醇的 OpenCode”——这绝非虚言。

“如果 Claude Code 在 7 天内完成人类 3 个月的工作量,Sisyphus 只需要 1 小时。它会一直工作直到任务完成。它是一个自律的智能体。” — B,量化研究员

Oh My OpenCode 是 OpenCode 的综合插件,增加了以下功能:

  • 异步子智能体——像 Claude Code 一样并行运行多个 AI 智能体
  • 精选智能体——预配置的专家智能体和最佳模型
  • 精心打造的工具——用于强大代码操作的 LSP 和 AST grep 工具
  • 精选 MCP——内置的模型上下文协议服务器,提供扩展能力
  • Claude Code 兼容性——完整的 Claude Code 配置兼容层

该插件已在生产环境中经过实战测试,并已帮助开发者完成了令人瞩目的成就:

“我用 Oh My Opencode 在一天内解决了 8000 个 eslint 警告” — Jacob Ferrari

“我使用 Ohmyopencode 和 ralph loop 在一夜之间将一个 45,000 行的 tauri 应用转换为 SaaS Web 应用。” — James Hargis

Oh My OpenCode 的核心是 Sisyphus,这是以希腊神话人物命名的默认编排者智能体,该人物因被惩罚永远推着巨石上山而闻名。

“在希腊神话中,西西弗斯因欺骗众神而被判永远将巨石推上山坡。LLM 智能体并没有做错什么,但它们每一天也在滚动它们的’石头’——它们的想法。回顾过去,我们与这些智能体并无太大不同。“

Sisyphus 配备了强大的工具和队友:

队友(精选智能体):

  • Oracle(GPT 5.2 Medium)——设计和调试
  • Frontend UI/UX Engineer(Gemini 3 Pro)——前端开发
  • Librarian(Claude Sonnet 4.5)——官方文档和代码库探索
  • Explore(Grok Code)——使用上下文 grep 进行快速代码库探索

内置工具:

  • 完整的 LSP/AstGrep 支持,用于果断的重构
  • Todo 继续执行器——强制智能体完成任务
  • 注释检查器——防止过多的 AI 生成注释
  • Claude Code 兼容性——命令、智能体、技能、MCP 和钩子
  • 精选 MCP:Exa(网络搜索)、Context7(官方文档)、Grep.app(GitHub 搜索)
  • 支持后台执行的异步智能体
  • 会话管理和恢复

Oh My OpenCode 实现了复杂的工作流程,让不同的 AI 模型并行工作:

当 Gemini 3 Pro 作为后台任务编写前端时,
Claude Opus 4.5 处理后端。调试卡住了?调用 GPT 5.2 寻求帮助。
当前端报告完成时,验证并发布。

与其他限制智能体代码分析访问能力的 AI 工具不同,Oh My OpenCode 为智能体提供了完整访问权限:

  • lsp_hover——类型信息和文档
  • lsp_goto_definition——跳转到符号定义
  • lsp_find_references——在工作区中查找所有用法
  • lsp_document_symbols——获取文件符号大纲
  • lsp_workspace_symbols——按名称搜索符号
  • lsp_diagnostics——在构建前获取错误
  • lsp_rename——在工作区中重命名符号
  • ast_grep_search——AST 感知的代码模式搜索
  • ast_grep_replace——AST 感知的代码替换

受 Anthropic 的 Ralph Wiggum 插件启发,Ralph 循环是一个自我引用的开发循环,会一直运行直到任务完成:

Terminal window
/ralph-loop "构建 REST API"

循环会检测 <promise>DONE</promise> 来知道何时完成,并在智能体过早停止时自动继续。它支持所有编程语言,可以配置自定义迭代限制。

Oh My OpenCode 为 Claude Code 提供了全面的兼容层:

  • 钩子集成——PreToolUse、PostToolUse、UserPromptSubmit、Stop
  • 配置加载器——从标准位置加载命令、技能、智能体、MCP 配置
  • 数据存储——以 Claude Code 格式进行 Todo 管理和转录
  • 兼容性开关——精细控制启用哪些功能

智能上下文管理功能:

  • 上下文窗口监控器——在 70%+ 使用率时发出警报
  • 预防性压缩——在 85% 使用率时压缩会话(默认启用)
  • Anthropic 自动压缩——在 token 限制时自动摘要
  • 工具输出截断器——防止一次搜索消耗整个上下文
Terminal window
bunx oh-my-opencode install
# 如果 bunx 不工作,使用 npx
npx oh-my-opencode install

按照提示配置您的 Claude、ChatGPT 和 Gemini 订阅。

将其粘贴到新的 OpenCode 会话中:

按照以下说明安装和配置
https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/master/README.md

智能体将引导您完成整个设置过程。

配置以 JSON/JSONC 格式存储:

用户配置: ~/.config/opencode/oh-my-opencode.json 项目配置: .opencode/oh-my-opencode.json

{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"sisyphus_agent": {
"disabled": false,
"default_builder_enabled": false,
"planner_enabled": true,
"replace_plan": true
},
"agents": {
"oracle": {
"model": "openai/gpt-5.2"
},
"frontend-ui-ux-engineer": {
"model": "google/gemini-3-pro-high"
}
},
"disabled_hooks": ["startup-toast"],
"ralph_loop": {
"enabled": true,
"default_max_iterations": 100
}
}

在提示中包含这些关键词以激活特殊模式:

  • ultrawork / ulw——使用并行智能体编排的最大性能模式
  • search / find——最大化搜索努力,并行使用 explore 和 librarian 智能体
  • analyze / investigate——深度分析模式,多阶段专家咨询
让 @oracle 审查这个设计并提出架构
让 @librarian 解释这是如何实现的——为什么行为一直在变化?
让 @explore 查找此功能的策略
功能Claude CodeOh My OpenCode
多模型支持仅 ClaudeClaude、GPT、Gemini、Grok
异步智能体
LSP 工具仅分析完整重构
钩子是(兼容)
自定义智能体技能系统精选 + 自定义
可扩展性有限高度可扩展
开源

如果配置看起来很复杂,只需记住:在提示中包含 ultrawork。智能体会自动处理其余部分。

2. 使用后台智能体进行并行工作

Section titled “2. 使用后台智能体进行并行工作”

让不同的模型同时处理不同的部分:

Terminal window
# 主智能体处理后端
# 生成 Gemini 3 Pro 作为后台任务处理前端
# 如果调试卡住,调用 GPT 5.2

Oh My OpenCode 积极使用多个智能体来减轻上下文负载。您的智能体成为开发团队负责人,而您是 AI 经理。

您可以禁用不需要的功能:

{
"disabled_agents": ["oracle", "frontend-ui-ux-engineer"],
"disabled_hooks": ["comment-checker"],
"disabled_mcps": ["context7"]
}

如果您通过 Snap 安装了 Bun,bunx 将由于沙箱而失败。改用 npx 或通过官方安装程序重新安装 Bun。

确保 OpenCode 版本为 1.0.150 或更高:

Terminal window
opencode --version

对于 Google Gemini,考虑使用外部 opencode-antigravity-auth 插件进行多账户负载均衡。

问:我需要所有 AI 订阅吗?

答:不需要!您只需使用一个提供商即可使用 Oh My OpenCode。该插件支持 Claude、ChatGPT 和 Gemini,但您可以自由选择。

问:这适合初学者吗?

答:该插件功能强大但可能比较复杂。作者建议在提示中包含 ultrawork——智能体会自动处理优化。

问:这与 AmpCode 相比如何?

答:Oh My OpenCode 深受 AmpCode 和 Claude Code 的影响,移植并经常改进了功能。它是为开源 OpenCode 平台设计的。

问:我可以将其与现有的 Claude Code 配置一起使用吗?

答:可以!Claude Code 兼容层意味着您现有的配置、钩子和技能应该可以直接使用。

Oh My OpenCode 代表了广泛的实际测试和优化的结晶。它将 OpenCode 从一个能干的 AI 编程助手转变为复杂的多智能体编排平台。

无论您是寻求最大化生产力经验丰富的开发者,还是探索可能性边界的 AI 爱好者,Oh My OpenCode 都提供了强大、可扩展且经过彻底测试的解决方案。

正如作者所说:

“不再为智能体工具的选择而烦恼。我会进行研究,借鉴最好的方案,并在这里发布更新。”

准备增强您的 OpenCode 体验了吗? 安装 Oh My OpenCode,让 Sisyphus 继续滚动那块巨石。


来源:

SivaLabs Marketplace:用 Claude Code 加速 Spring Boot 开发

Claude Code 已迅速成为强大的 AI 驱动开发伴侣,其通过插件和 MCP 服务器的扩展性为专业化开发工作流开启了无限可能。隆重介绍 SivaLabs Marketplace——一个专为 Java 和 Spring Boot 开发者精心策划的插件集合。

由知名 Spring Boot 作者和教育家 K. Siva Prasad Reddy(sivalabs)创建,这个市场将企业级 Java 开发模式直接带入您的 AI 辅助编码体验中。

SivaLabs Marketplace 是 Claude Code 的插件集合,专注于使用 Java、Spring Boot 和 Spring Data JPA 技术栈的 Spring Boot 应用程序开发。它提供专业化的技能,自动执行常见的开发任务,同时遵循既定的最佳实践和架构模式。

该市场目前处于积极开发阶段(截至 2026 年 1 月),包含 spring-boot-dev 插件作为其旗舰产品。

开始使用 SivaLabs Marketplace 非常简单:

Terminal window
# 将市场添加到 Claude Code
/plugin marketplace add sivaprasadreddy/sivalabs-marketplace
# 启用市场
/plugin enable sivaprasadreddy/sivalabs-marketplace
# 安装 Spring Boot 开发插件
/plugin install spring-boot-dev@sivalabs-marketplace

安装后,您可以在 Claude CLI 中使用 /plugins 命令验证插件及其技能是否可用。

spring-boot-dev 插件包含五个简化 Spring Boot 开发的专业技能:

创建遵循最佳实践的推荐 Spring Boot 项目包结构。此技能确保您的项目从坚实的架构基础开始。

自动创建具有适当注解、关系和最佳实践的 JPA 实体。只需描述您的实体需求,该技能即可生成生产就绪的实体类。

为您的实体生成 Spring Data JPA 仓库接口,包括需要时的自定义查询方法。

创建具有适当依赖注入、事务管理和业务逻辑分离的 Spring 服务层类。

构建 Spring MVC REST API 控制器,包含适当的注解、请求/响应处理和验证。

以下是使用 SivaLabs Marketplace 快速构建 CRUD REST API 的方法:

  1. 创建 Spring Boot 项目,包含 Web、Validation、Spring Data JPA 和 H2 依赖
  2. 在 Claude CLI 中提示:“为 Person 实现 CRUD REST API,包含 id、name、email 和 phone 字段”
  3. 插件将自动生成:
    • JPA 实体(Person.java
    • 仓库接口(PersonRepository.java
    • 服务层(PersonService.java
    • REST 控制器(PersonController.java

每个生成的组件都遵循 Spring Boot 最佳实践,并与其他组件无缝集成。

该市场还包含 context7 MCP 服务器,提供通用库文档查找功能。这增强了 Claude Code 在开发过程中引用官方 Spring 文档和其他库的能力。

  • 新的 Spring Boot 项目:快速构建结构良好的项目
  • CRUD 操作:生成标准的创建、读取、更新、删除 API
  • 学习 Spring Boot:在生成的代码中查看最佳实践
  • 原型设计:快速构建可用于测试和验证的工作 API
  1. 从包结构开始:首先使用 spring-boot-package-structure-creator 建立项目布局
  2. 清晰描述实体:使用 jpa-entity-creator 时,提供详细的字段规范,包括类型、约束和关系
  3. 审查生成的代码:虽然插件遵循最佳实践,但始终审查并调整生成的代码以满足您的特定需求
  4. 使用 Context7:利用包含的 MCP 服务器访问最新的 Spring 文档
功能SivaLabs Marketplace通用 AI 编码手动开发
Spring Boot 最佳实践✓ 内置可变取决于开发者
包结构✓ 自动化经常缺失手动设置
集成模式✓ 标准化不一致手动实现
学习曲线Spring 开发者较低变化初学者较高
自定义生成的代码可编辑需要提示完全控制
  • 早期开发:市场正在积极开发中;功能可能会不断演进
  • Spring Boot 专用:不适用于非 Spring 的 Java 项目
  • 需要代码审查:始终审查生成的代码的安全性、性能和业务逻辑
  • Claude Code 依赖:需要 Claude Code CLI 环境
  • 确保市场已添加并启用
  • 检查互联网连接以访问市场
  • 验证 Claude Code 是否为最新版本
  • 提供更具体的提示和详细需求
  • 查看 Spring Boot 版本兼容性
  • 检查 pom.xmlbuild.gradle 中是否包含所有必需的依赖

鉴于 K. Siva Prasad Reddy 在 Spring Boot 方面的专业知识以及他活跃的 YouTube 频道( featuring Spring Boot 教程),我们可以期待:

  • 额外的测试技能(JUnit、Mockito、Testcontainers)
  • 安全配置生成器
  • Docker 和 Kubernetes 部署助手
  • 与其他 Spring 生态系统项目的集成

SivaLabs Marketplace 代表了 AI 辅助 Spring Boot 开发的激动人心的演进。通过将 Claude Code 的强大 AI 功能与专业的 Spring Boot 知识相结合,它帮助开发者更快地工作,同时保持代码质量并遵循既定模式。

无论您是希望加速工作流程的经验丰富的 Spring Boot 开发者,还是希望看到最佳实践实战的学习开发者,SivaLabs Marketplace 都是您的 Claude Code 工具包的宝贵补充。


资料来源:

Slash Commands 指令集:13 个 AI 驱动的开发者效率神器

Slash Commands 指令集:13 个 AI 驱动的开发者效率神器

Section titled “Slash Commands 指令集:13 个 AI 驱动的开发者效率神器”

随着 AI 编程助手成为现代开发者的必备工具,通过斜杠指令(slash commands)来自定义和简化其行为已成为提升生产力的重要途径。由 regenrek 创建的 slash-commands 指令集提供了 13 个经过实战检验的命令,专为代码审查、问题分析和重构工作流而设计。让我们深入探索这个能够跨 Claude Code、Cursor 和 Codex 使用的综合工具包。


slash-commands 代码库是由 Kevin Kern 精心策划的一组 AI 驱动的斜杠指令集合,Kevin 专注于构建增强 AI 辅助编码工作流的工具。该集合解决了开发者在使用 AI 编程助手时面临的常见痛点:

  • 代码审查一致性 - 团队成员之间的标准化审查
  • 问题诊断 - 系统化的错误识别和影响分析
  • 重构工作流 - 结构化的代码改进方法
  • 规划与组织 - 任务管理和文档实践

每个命令都被设计为 Markdown 模板,可以通过简单的 /命令名称 语法调用,使复杂的工作流可重复且可在团队间共享。


Claude Code 支持项目级和个人级命令:

项目命令(与团队共享):

Terminal window
mkdir -p .claude/commands
# 将 .md 文件复制到 .claude/commands/

个人命令(在所有项目中可用):

Terminal window
mkdir -p ~/.claude/commands
# 将 .md 文件复制到 ~/.claude/commands/
Terminal window
mkdir -p .cursor/commands
# 将 .md 文件复制到 .cursor/commands/
# 注意:在 Cursor 中使用时,删除 $1 参数和 XML 包装标签
Terminal window
mkdir -p ~/.codex/prompts
# 将 .md 文件复制到 ~/.codex/prompts/
# 安装后重启 Codex 使更改生效

用途:在开发开始之前创建包含所有必要部分的结构化实施计划。

用法

/create-plan TASK="实现用户认证系统"

功能特点

  • 上下文和问题陈述
  • 可衡量的成功标准
  • 明确的交付成果和实施方法
  • 风险评估和测试策略
  • 交叉引用 AGENTS.md 获取规则/约束

使用场景:在新功能或复杂任务开始时,确保全面规划。


用途:审查实施计划并提供开发决策(通过/不通过)。

用法

/plan-review "我们计划实施 @task-x-new-cool-feature.md"

评估内容

  • 代码库对齐和当前模式
  • 范围清晰度和完整性
  • 性能、安全性和隐私影响
  • 代码异味和潜在问题

使用场景:在开始复杂实施之前验证方法。


用途:通过创建完成的计划文件和轻量级摘要来完成任务。

用法

/finalize-plan TASK_FILE="docs/tasks/todo/01-user-auth.md"

功能特点

  • 将任务移动到完成目录并标记状态
  • 创建轻量级摘要文件(SOW - 工作摘要)
  • 计划和摘要之间的交叉引用
  • 跟踪受影响的文件、测试和决策
  • 针对 AI 消费优化的 token 数量

使用场景:任务完成时维护有序的文档记录。


用途:专注于关键问题的轻量级代码审查。

用法

/code-review-low "我的计划 @task-x-cool-feature 已实施,检查未暂存的文件"

关注领域

  • 代码异味和安全漏洞
  • 性能瓶颈
  • 基本测试覆盖率

输出

  • 包含前 1-3 个风险的摘要
  • 决策:批准 | 要求修改 | 阻塞
  • 按异味 | 安全 | 性能 | 测试分组的结果
  • 精确的文件和行范围引用

使用场景:实施功能后进行快速验证。


用途:针对重大变更的扩展分析综合代码审查。

用法

/code-review-high "@auth.server.ts @auth.rs @auth.connector.ts"

包括:所有 code-review-low 检查加上:

  • 更深入的安全和性能分析
  • 全面的测试建议
  • 架构和设计模式审查
  • 依赖和集成分析

使用场景:用于重大变更或发布前。


6. /problem-analyzer - 错误识别和影响分析

Section titled “6. /problem-analyzer - 错误识别和影响分析”

用途:识别错误并映射代码库中受影响的文件。

用法

/problem-analyzer "应用无法编译。以下是日志 <paste-logs>"

提供内容

  • 根本原因分析
  • 文件影响评估
  • 最小安全修复建议
  • 文档缺口识别

专业提示:最好与错误日志和简短的问题描述结合使用。考虑与 Cheetah 等更快的模型一起使用以进行快速分析,然后切换到更强大的模型进行详细解决方案。

使用场景:调试期间加快问题解决速度。


7. /refactor-code - 结构化重构工作流

Section titled “7. /refactor-code - 结构化重构工作流”

用途:启动具有明确范围和隔离的重构工作流。

用法

/refactor-code "这是我们的实施计划 @impl-plan 开始吧"

功能特点

  • 特定功能重构范围
  • 提交隔离指南
  • 记录无关问题(不修复)
  • 无向后兼容性或功能标志

使用场景:开始重构工作时保持干净的提交历史。


用途:使用特定于操作系统的命令杀死指定端口上运行的进程。

用法

/kill-port "3000"
/kill-port "3000 8080 9000" # 多个端口

功能特点

  • 跨平台支持(macOS、Linux、Windows)
  • 进程识别和验证
  • 系统进程的安全警告
  • 优雅关闭建议

使用场景:端口被占用时需要释放端口。


用途:用于评估基线库替代品的综合模板。

用法

/research-better-lib "Fuse.js 模糊搜索 fuzzysort quick-score FlexSearch MiniSearch"

功能特点

  • 结构化的问题陈述和成功指标
  • 基准测试的搜索查询模板
  • 候选库短列表评估
  • 最小基准设计指南
  • 决策标准和交付物清单

使用场景:考虑库替换时,寻找现代、更快的替代方案。


10. /ask-codefetch - 代码库上下文收集

Section titled “10. /ask-codefetch - 代码库上下文收集”

用途:使用 codefetch 将缩小的代码库上下文收集到单个 markdown 文件中。

用法

Terminal window
npx codefetch --max-tokens 50000 \
--output codefetch/codebase.md \
--token-encoder o200k \
--project-tree 3 \
--include-files "src/auth/**/*.ts,src/api/**/*.ts" \
--include-dir "src/utils"

工作流程

  1. 研究:识别任务的相关文件/目录
  2. 生成:使用 scoped 文件运行 codefetch → 单个 .md 文件
  3. 阅读:使用 codefetch/codebase.md 作为上下文

使用场景:当需要向 AI 提供代码库特定部分的上下文时。


11. /ask-codefetch-pro - 快速代码库分析

Section titled “11. /ask-codefetch-pro - 快速代码库分析”

用途:生成代码库,复制到剪贴板,并自动打开 AI 聊天。

用法

Terminal window
# ChatGPT(默认)
npx codefetch open --max-tokens 50000 \
--token-encoder o200k \
--project-tree 3 \
--include-files "src/**/*.ts"
# Gemini
npx codefetch open --chat-url gemini.google.com --chat-model gemini-3.0 \
--max-tokens 50000 --include-files "src/**/*.ts"
# Claude
npx codefetch open --chat-url claude.ai --chat-model claude-3.5-sonnet \
--max-tokens 50000 --include-files "src/**/*.ts"

使用场景:快速代码库分析,具有自动剪贴板和浏览器集成。


用途:全面的 SolidJS 编码规则和最佳实践。

用法

/solidjs-rules CODEFILES="@Button.tsx @TodoList.tsx"

涵盖内容

  • 响应式基础和信号使用
  • 控制流助手(Show、For、Switch)
  • 异步和副作用模式
  • 组件 API 和属性指南
  • 样式约定
  • 文件和文件夹组织
  • ESLint 配置示例

使用场景:使用 SolidJS 代码库时确保最佳实践。


13. /component-cleanup - SolidJS 组件结构

Section titled “13. /component-cleanup - SolidJS 组件结构”

用途:用于代码清理的 SolidJS 组件大小和结构规则。

用法

/component-cleanup CODEFILES="@UserProfile.tsx"

指南

  • 组件大小指南(目标 150-250 LOC,硬上限 600 LOC)
  • 文件命名约定
  • 组件拆分策略
  • 逻辑提取到 hooks/utilities
  • JSX 嵌套限制

使用场景:审查或重构 SolidJS 组件时。


用途:在保留所有关键信息的同时最小化 token 使用。

用法

/short-tokens TEXT="@long-documentation.md"

原则

  • 积极修剪以节省 token
  • 保留每个关键事实、数据和结论
  • 删除冗余和填充内容
  • 避免 ** 星号格式
  • 每个 token 都占用 agent token 窗口的空间

使用场景:为 AI token 窗口优化文本内容时。


  1. 晨间规划:对新任务使用 /create-plan
  2. 实施前:使用 /plan-review 验证方法
  3. 开发期间:出现错误时使用 /problem-analyzer
  4. 实施后:使用 /code-review-low 进行快速验证
  5. 主要里程碑:发布前使用 /code-review-high
  6. 任务完成:使用 /finalize-plan 记录结果
  • 共享命令:通过项目级 .claude/commands/ 目录
  • 标准化审查:使用 /code-review-low/code-review-high
  • 记录决策:使用 /finalize-plan 摘要
  • 一起调试:使用带有共享日志的 /problem-analyzer
  • 使用 /solidjs-rules 进行新开发者入职
  • 在代码审查期间应用 /component-cleanup
  • 结合两者进行全面的 SolidJS 质量检查

功能regenrek slash-commandsClaude Code 内置 /review
代码审查级别两个:low(快速)和 high(全面)单一级别
自定义完全可编辑的 Markdown 模板固定提示
规划重点专用 /create-plan/plan-review未包含
问题分析专用 /problem-analyzer通用调试
重构结构化 /refactor-code 工作流未专门化
跨平台Claude Code、Cursor、Codex仅 Claude Code
社区开源、可分支专有

  1. 从简单开始:首先使用 /create-plan/code-review-low 获得即时价值
  2. 自定义:编辑 Markdown 模板以匹配团队的约定
  3. 版本控制:将自定义命令与代码一起提交
  4. 组合工作流:链接命令(例如 /create-plan/plan-review/code-review-low
  5. 记录模式:使用 /finalize-plan 为未来工作创建可重用的模式

Kevin Kern@kregenrek | kevinkern.dev)是 slash-commands 指令集的创建者,也是 instructa.ai 的创始人,他在那里教授开发者如何使用 AI 构建软件。

相关项目

  • codex-1up - OpenAI Codex 工具
  • AI Prompts - 为 Cursor AI、Cline、Windsurf 和 Github Copilot 策划的 AI 提示
  • codefetch - 将代码转换为 LLM 的 Markdown
  • aidex - AI 语言模型信息的 CLI 工具

regenrek 的 slash-commands 指令集将 AI 编程助手从通用工具转变为个性化的、以团队为导向的生产力系统。通过提供 14 个精心制作的命令,涵盖规划、审查、调试、重构和优化,该集合解决了开发者日常面临的真实工作流程。

无论您是独自工作还是团队的一部分,这些命令都有助于保持一致性、尽早发现问题并有效记录决策。其美妙之处在于简单性——可以自定义、共享和版本控制的 Markdown 文件,与您的代码一起。

/create-plan/code-review-low 开始,然后随着团队需求的发展逐渐融入更多命令。您的未来的自己(和您的队友)会感谢您对标准化、高效工作流的投入。


复合工程插件:让每次工程工作都比上次更轻松的官方 Claude Code 插件

复合工程插件:让每次工程工作都比上次更轻松的官方 Claude Code 插件

Section titled “复合工程插件:让每次工程工作都比上次更轻松的官方 Claude Code 插件”

“每一次工程工作都应该让下一次工作变得更容易,而不是更难。”

在传统软件开发中,每个新增的功能都会让下一个功能更难构建。更多的代码意味着更多的边界情况、更多的相互依赖,以及更多的复杂性。这种技术债务的积累是大多数代码库的默认轨迹。

EveryInc 的 compound-engineering-plugin Claude Code 插件颠覆了这一范式。它实现了复合工程方法论,通过系统化的学习循环,让每个工作单元都能让未来的工作变得更加轻松。

compound-engineering-plugin 是由 EveryInc 开发的官方 Claude Code 插件,它通过编排 AI 代理来进行规划、编写、审查和复合工程知识。该插件体现了一种革命性的软件开发方法:

  • 80% 的精力投入规划和审查——确保在编写代码之前充分理解
  • 20% 的精力投入执行——利用 AI 代理进行代码生成
  • 知识随时间复合——每个学到的经验都会反馈到系统中
功能特性描述
四步工作流程计划 → 执行 → 审查 → 复合 → 重复
多代理编排并行代理处理研究、实施和审查
知识复合系统化捕获和重用学到的经验
工作树管理为每个功能提供独立的开发环境
开源MIT 许可,完全可审计和可定制
  • 已安装并配置 Claude Code
  • Git 用于工作树管理
  • GitHub CLI (gh) 用于仓库操作

安装过程非常简单:

Terminal window
# 添加插件市场
/plugin marketplace add https://github.com/EveryInc/compound-engineering-plugin
# 安装 compound-engineering 插件
/plugin install compound-engineering

安装完成后,插件提供四个主要工作流命令:

命令用途
/workflows:plan将功能想法转化为详细的实施计划
/workflows:work使用工作树执行计划并跟踪任务
/workflows:review合并前的多代理代码审查
/workflows:compound记录学到的经验,让未来的工作更轻松

该方法论在这些场景中表现卓越:

  1. 独立开发者构建产品——一个开发者可以完成传统上需要五人团队的工作
  2. 复杂功能开发——需要仔细规划的多组件功能
  3. 知识密集型代码库——上下文和模式非常重要的项目
  4. 长期项目——复合效应有时间累积的项目

以下是典型的复合工程会话流程:

/workflows:plan

AI 代理会:

  • 研究代码库和提交历史
  • 搜索互联网上的最佳实践
  • 综合详细的实施计划
  • 识别潜在陷阱和边界情况
/workflows:work

AI 代理会:

  • 创建独立的工作树
  • 按照计划实施
  • 与代码并行编写测试
  • 跟踪任务完成情况
/workflows:review

多个 AI 代理会:

  • 独立审查代码
  • 发现问题并提出改进建议
  • 根据既定模式进行评估
  • 验证所有验收标准

第四步:复合(魔法发生的地方)

Section titled “第四步:复合(魔法发生的地方)”
/workflows:compound

AI 代理会:

  • 记录学到的经验教训
  • 捕获发现的新模式
  • 更新项目知识库
  • 将见解反馈回系统
  1. 永不跳过计划阶段——这是创造最多价值的地方
  2. 合并前始终审查——多视角能发现更多问题
  3. 记录一切——未来的 AI 代理依赖这些知识
  4. 信任过程——复合效应需要时间才能显现

注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”

⚠️ 学习曲线

复合工程方法需要思维方式的转变。习惯于”直接写代码”的传统开发者可能会发现对规划的强调有些陌生。

⚠️ 初始投入

前几个周期会比传统开发感觉更慢。这是正常的——你正在构建未来周期将依赖的知识基础。

⚠️ 工具要求

要获得全部收益,需要安装了插件的 Claude Code。该方法论在理论上是工具无关的,但针对此技术栈进行了优化。

问:这仅适用于独立开发者吗?

答:不是。虽然 Every 使用它来让独立开发者构建复杂产品,但团队可以从系统化的知识捕获和多代理审查过程中受益更多。

问:这适用于现有代码库吗?

答:是的。计划阶段包括研究你现有的代码库,使其对绿地和棕地项目都有效。

问:我可以将其与其他 AI 编码工具一起使用吗?

答:该插件专为 Claude Code 设计,但复合工程哲学是工具无关的。Every 团队的一些成员也使用 OpenAI 的 Codex CLI。

问:如果计划错了怎么办?

答:审查和复合阶段会捕获计划失败的原因,将这些学习反馈回未来的规划周期。

问题解决方案
插件未找到确保在安装前添加了市场
工作树冲突使用 git worktree prune 清理现有工作树
AI 代理幻觉使用具有多个代理的审查阶段来捕获问题
性能缓慢考虑在计划阶段减少研究范围
工具/方法规划执行审查知识复合
复合工程插件✅ 深度研究阶段✅ AI 驱动✅ 多代理✅ 核心功能
传统开发❌ 临时性✅ 手动✅ 可选❌ 罕见
GitHub Copilot❌ 无✅ AI 辅助❌ 无❌ 无
Cursor AI⚠️ 有限✅ AI 驱动⚠️ 有限❌ 无
Droid (Startup Factory)⚠️ 基础✅ AI 驱动⚠️ 基础⚠️ 有限
  1. 知识复合作为一等公民——大多数工具专注于代码生成;复合工程专注于让未来的工作更轻松

  2. 多代理审查——利用多个 AI 视角来捕获单代理方法遗漏的问题

  3. 系统化学习循环——每个经验都会被捕获并反馈回系统

  4. 80/20 规划执行比——颠覆了传统对编码速度的强调

复合工程插件可以与以下工具集成:

  • CI/CD 管道——在部署前使用审查阶段作为关卡
  • 文档工具——自动将复合输出馈送到知识库
  • 项目管理——将工作树跟踪为任务/功能
  • 代码质量工具——与 linter、格式化程序和安全扫描器结合使用

EveryInc 在内部运行五个软件产品,每个产品主要由一个人使用复合工程构建和维护:

“今天,如果你的 AI 使用得当,一个开发者可以完成几年前五个开发者的工作,基于我们在 Every 的经验。”

—— Dan Shipper 和 Kieran Klaassen,复合工程:Every 如何使用 AI 代理编码

这些不是演示——它们是每天有成千上万用户用于重要工作的产品。


总结: compound-engineering-plugin 代表了软件开发的范式转变。通过将知识视为一等构件并系统化地捕获学到的经验,它让每次工程工作都比上次更轻松。无论你是独立开发者还是团队的一员,这种方法都提供了可持续的、复合的生产力提升路径。

Ralph Wiggum:Claude Code 官方插件实现自主 AI 开发循环

Ralph Wiggum:Claude Code 官方插件实现自主 AI 开发循环

Section titled “Ralph Wiggum:Claude Code 官方插件实现自主 AI 开发循环”

Ralph Wiggum 插件

在 AI 辅助开发领域,Geoffrey Huntley 提出了一项迷人的技术。以《辛普森一家》中著名的坚持角色 Ralph Wiggum 命名,Ralph Wiggum 技术体现了一个简单而强大的哲学:不断尝试,直到成功

正如 Huntley 著名地描述:

“Ralph 是一个 Bash 循环”——一个简单的 while true 循环,反复向 AI 代理提供提示文件,让它迭代改进工作直到完成。

现在,Anthropic 发布了一个官方 Claude Code 插件来实现这一技术,将自主 AI 开发循环带到你的指尖。

Ralph Wiggum 技术建立在尽管挫折仍持续迭代的原则之上。与其试图一次性把所有事情都做对,不如让 AI 失败、从失败中学习,然后自动重试。

传统的 AI 辅助开发方法是这样的:

人类 → 询问 AI → AI 回应 → 人类审查 → 人类再次询问 → ...

Ralph Wiggum 方法将其翻转:

人类 → 定义任务及完成标准
AI → 工作 → 尝试退出 → 阻止退出 → 查看之前的工作 → 再次尝试
... 循环直到满足完成标准

官方 ralph-wiggum 插件使用**停止钩子(Stop hook)**来拦截 Claude 的退出尝试:

Terminal window
# 你只需运行一次:
/ralph-loop "你的任务描述" --completion-promise "完成"
# 然后 Claude Code 自动执行:
# 1. 处理任务
# 2. 尝试退出
# 3. 停止钩子阻止退出
# 4. 停止钩子重新提供相同的提示
# 5. 重复直到完成

循环发生在当前会话内部——无需外部 bash 循环。hooks/stop-hook.sh 中的停止钩子创建了自我参照的反馈循环。

  • 提示在迭代之间保持不变
  • Claude 之前的工作保留在文件中
  • 每次迭代都能看到修改的文件和 git 历史
  • Claude 通过阅读自己的工作自主改进

插件提供两个主要命令:

启动循环:

Terminal window
/ralph-loop "构建一个 REST API 用于待办事项。要求:CRUD 操作、输入验证、测试。完成后输出 <promise>COMPLETE</promise>。" --completion-promise "COMPLETE" --max-iterations 50

取消循环:

Terminal window
/cancel-ralph
  • --max-iterations <n> - 通过在 N 次迭代后停止来防止无限循环
  • --completion-promise "<text>" - 定义表示完成的确切短语

Ralph Wiggum 技术的成功很大程度上取决于你如何编写提示

Terminal window
# 太模糊 - 没有明确的成功标准
"构建一个待办事项 API,并且做好它。"
# 太宽泛 - 无法一次性完成
"创建一个完整的电商平台。"
# 没有指定测试/验证
"为功能 X 编写代码。"
Terminal window
# 明确的要求和完成标准
构建一个用于待办事项的 REST API。
完成后:
- 所有 CRUD 端点正常工作
- 输入验证到位
- 测试通过(覆盖率 > 80%)
- 带有 API 文档的 README
- 输出:<promise>COMPLETE</promise>
# 复杂任务的分阶段方法
阶段 1:用户认证(JWT、测试)
阶段 2:产品目录(列表/搜索、测试)
阶段 3:购物车(添加/删除、测试)
所有阶段完成后输出 <promise>COMPLETE</promise>。
# 质量保证的 TDD 方法
遵循 TDD 实现功能 X:
1. 编写失败的测试
2. 实现功能
3. 运行测试
4. 如果有失败,调试并修复
5. 如有必要,重构
6. 重复直到全部通过
7. 输出:<promise>COMPLETE</promise>
  • 明确定义的任务,有明确的成功标准
  • 需要迭代的任务(例如,让测试通过)
  • 绿地项目,你可以离开
  • 有自动验证的任务(测试、linter)
  • 需要人类判断或设计决策的任务
  • 一次性操作
  • 成功标准不明确的任务
  • 生产环境调试(改用有针对性的调试)

Ralph Wiggum 技术展示了令人印象深刻的真实世界成果:

  • 在 Y Combinator 黑客马拉松测试中一夜生成 6 个仓库
  • 一份 50,000 美元的合同仅花费 297 美元的 API 成本完成
  • 使用这种方法在 3 个月内创建了一整套编程语言(“cursed”)

Ralph 体现了几个使其有效的关键原则:

  1. 不要第一次就追求完美——让循环来完善工作
  2. “确定性失败”意味着失败是可预测的——利用它们来调整提示
  3. 成功取决于编写好的提示——而不仅仅是拥有好的模型
  4. 不断尝试直到成功——循环自动处理重试逻辑

Ralph Wiggum 插件可在官方 Anthropic Claude 插件仓库中获取:

Terminal window
# 克隆官方插件仓库
git clone https://github.com/anthropics/claude-plugins-official.git
# 插件位于:
# plugins/ralph-wiggum/

插件中的关键文件:

  • .claude-plugin - 插件配置
  • commands/ - 命令定义(/ralph-loop/cancel-ralph
  • hooks/stop-hook.sh - 使循环工作的魔法
  • scripts/ - 支持脚本

对于更复杂的工作流,Ralph Orchestrator 提供了增强功能:

  • 管理多个 Ralph 循环的基于 Web 的界面
  • 多个任务的并行执行
  • 进度监控和日志记录
  • 与 CI/CD 管道集成

了解 Ralph Orchestrator 更多信息

Ralph Wiggum 插件代表了 AI 辅助开发思维的范式转变。不再将 AI 视为一次性工具,而是拥抱软件开发是迭代的这一现实——AI 也应该如此。

通过让 Claude 失败、学习并自动重试,我们解锁了以前不可能的自主水平。无论是构建 REST API、生成测试套件,还是处理复杂的多阶段项目,Ralph Wiggum 都赋予你定义目的地并让 AI 寻找路径的能力。


发布日期:2026 年 1 月 3 日 作者:VibeSparking AI 研究团队

pg-aiguide:AI优化的PostgreSQL专业知识的编码助手

pg-aiguide:AI优化的PostgreSQL专业知识编码助手

Section titled “pg-aiguide:AI优化的PostgreSQL专业知识编码助手”

在AI驱动开发工具快速发展的今天,一个挑战始终存在:AI编码助手经常生成的数据库代码过时、缺少关键约束、不了解现代PostgreSQL功能,并且与实际最佳实践不一致。

pg-aiguide 应运而生——这是由Timescale(现Tiger Data)开发的创新MCP服务器和Claude插件,为编码助手提供AI优化的PostgreSQL专业知识。

pg-aiguide是一个开源工具(Apache-2.0许可),帮助AI编码工具显著改善PostgreSQL代码质量。它提供三个核心能力:

  1. 语义搜索——跨官方PostgreSQL手册(版本感知)
  2. AI优化技能——精心策划的、有主见的Postgres最佳实践,由AI代理自动使用
  3. 扩展生态系统文档,从TimescaleDB开始,更多扩展即将推出

AI编码工具经常生成的PostgreSQL代码存在以下几个问题:

  • 过时的语法——没有跟上现代PostgreSQL版本的步伐
  • 缺少约束和索引——导致数据完整性和性能问题
  • 不了解现代PG功能——错过了最近版本引入的功能
  • 与最佳实践不一致——没有遵循经验丰富的开发者的成熟模式

pg-aiguide团队进行了一项令人印象深刻的对比测试。当被要求创建一个电商数据库架构时:

  • 4倍更多的约束,相比没有pg-aiguide的AI
  • 55%更多的索引(包括部分和表达式索引)
  • PG17推荐的模式——使用最新的PostgreSQL功能
  • 现代功能GENERATED ALWAYS AS IDENTITYNULLS NOT DISTINCT
  • 更清晰的命名和文档——更易维护的代码

pg-aiguide可以通过两种方式使用:

https://mcp.tigerdata.com/docs上可用,可以为任何AI编码代理配置:

{
"mcpServers": {
"pg-aiguide": {
"url": "https://mcp.tigerdata.com/docs"
}
}
}

对于Claude Code用户,安装非常简单:

Terminal window
claude plugin marketplace add timescale/pg-aiguide
claude plugin install pg@aiguide

pg-aiguide支持广泛的AI编码环境:

  • Claude Code——原生插件支持
  • Cursor——一键安装可用
  • Gemini CLI——MCP服务器集成
  • VS Code / VS Code Insiders——命令行安装
  • Windsurf——基于配置的设置
  • Codex——MCP服务器集成

semantic_search_postgres_docs函数对官方PostgreSQL手册执行语义搜索,结果范围限定在特定的Postgres版本。这意味着AI代理可以获得准确的、版本相关的信息。

通过semantic_search_tiger_docs,pg-aiguide搜索Tiger Data的文档语料库,包括TimescaleDB和未来的生态系统扩展。

view_skill函数展示了有主见的PostgreSQL最佳实践技能,涵盖:

  • 架构设计模式
  • 索引策略
  • 数据类型选择
  • 数据完整性和约束
  • 命名约定
  • 性能调优
  • 现代PostgreSQL功能

提示:“创建一个用于存储用户名和唯一电子邮件地址的Postgres表架构。”

pg-aiguide帮助生成具有适当约束和现代PostgreSQL类型的正确约束架构。

对于更复杂的场景,如IoT设备监控系统:

“为一家IoT设备公司生成Postgres架构。设备收集环境数据,包括温度、湿度、压力和其他测量值。每个设备都有唯一ID和人类可读的名称。分析包括查找异常值、异常和特定设备的临时分析。”

pg-aiguide帮助设计针对近期数据分析历史报告优化的架构。

  • Python(66.5%)——核心服务器逻辑
  • TypeScript(23.1%)——插件集成
  • JavaScript(9.3%)——Web界面

该项目有一个雄心勃勃的路线图:

  • pgvector支持,用于向量相似性搜索
  • PostGIS,用于地理空间数据
  • 欢迎社区贡献其他扩展

pg-aiguide欢迎以下几个方面的贡献:

  • 新的Postgres最佳实践技能
  • 额外的文档语料库
  • 搜索质量改进
  • 错误报告和功能建议

pg-aiguide代表了AI辅助数据库开发的重要一步。通过为AI代理提供深入的、版本化的PostgreSQL知识和经过验证的模式,它弥合了AI生成的代码和生产级数据库架构之间的差距。

无论您是使用AI编码助手的开发者,还是构建AI驱动开发工具的团队,pg-aiguide都为持续存在的AI生成数据库代码次优问题提供了一个实用的解决方案。


发布日期:2025年12月31日

实战测评:用 Claude Code + BMAD + GLM-4.7 打造 HeartPetBond App (心宠纽带)

核心看点:在 Claude Code 环境下,智谱 GLM-4.7 能否替代昂贵的 Opus 4.5?在 BMAD 文档驱动的敏捷开发流中,它的 200K 长上下文表现如何?本文通过 HeartPetBond (心宠纽带) App 的开发实战为您揭晓。

一、 为什么要做这次测评?(Motivation)

Section titled “一、 为什么要做这次测评?(Motivation)”

在 AI 辅助编程领域,Claude Opus 4.5 曾是无可争议的王者,但其高昂的成本(约 $15/百万输入,$75/百万输出)让高频开发者望而却步。DeepSeek V3 虽然便宜,但在处理超长上下文(>128K tokens)时偶尔会遇到瓶颈。

我希望通过开发 HeartPetBond 这款 App,验证 DeepSeek V3 的强力挑战者 —— 智谱 GLM-4.7 在实际工程中的表现:

  • 长上下文能力:标称 200K Tokens Context,能否撑起整个项目的文档和代码库?
  • 输出长度:128K Tokens Output,能否一次性生成复杂的 Flutter 页面?
  • 稳定性与幻觉:在长达数天的持续开发中,是否会出现逻辑崩溃?
  • 性价比:相比 Opus 4.5,它能为独立开发者省下多少钱?

挑战背景:在使用 DeepSeek V3 配合 Claude Code + BMAD 开发时,当上下文超过 128K 时曾遇到如下报错: API Error: 400 ... maximum context length is 131072 tokens... 而 GLM-4.7 的 200K 上下文或许正是破局的关键。

我有 10 年以上的 Flutter 开发经验,此前已成功利用 Claude Code + BMAD 自动生成了 MoneyMind App。这次,我要看看“国产之光”能否胜任同样的挑战。

二、 环境搭建:GLM-4.7 入驻 Claude Code

Section titled “二、 环境搭建:GLM-4.7 入驻 Claude Code”

要让 Claude Code “换脑”并不复杂,主要分为两步:

首先,我们需要引入 BMAD (Building Multi-Agent Development) 体系,它是让 AI “听懂人话”并按工程标准工作的核心。

Terminal window
bunx bmad-method@alpha install

Claude Code 原生支持通过 MCP 或 API 适配器连接外部模型。配置步骤如下:

  1. 注册并订阅 智谱 BIGMODEL 平台,获取 API Key。
  2. 在 Claude Code 或相关 MCP 配置中,将默认模型指向 GLM-4.7。

三、 从想法到产品:全自动开发流 (The Journey)

Section titled “三、 从想法到产品:全自动开发流 (The Journey)”

基于 BMAD 的工作流,HeartPetBond 的诞生依然遵循了标准的 “文档驱动开发” (Document Driven Development) 模式。以下是关键节点的实录:

Terminal window
> /bmad:bmm:workflows:workflow-init

BMAD 迅速扫描了项目状态,并给出了精准的分析报告:

Terminal window
🎉 Welcome to BMad Method, Vibe Sparking!
📊 Project State Analysis
Status: ACTIVE - You already have workflow tracking!
Existing Artifacts:
- Workflow Status File: _bmad-output/bmm-workflow-status.yaml
- Brainstorming Session: _bmad-output/analysis/brainstorming-session-2025-12-29.md
- 📁 Config: BMad Module v6.0.0-alpha.21 installed
Current Configuration:
Project: vs-heart-pet-bond (Mobile App)
Type: Greenfield (new project)

在确认了头脑风暴的结果后,AI 自动生成了产品定义:

Terminal window
> /bmad:bmm:workflows:create-product-brief
Key Findings from Brainstorming Session:
- Product: HeartPetBond - Shared Pet Care Log & Reminders App (心宠纽带 - 共享宠物护理日志)
- Target: Pet-owning couples/families (养宠情侣/家庭)
- Tech Stack: Flutter + GetX + Drift
- Core Philosophy: 1-second recording (1秒记录), frictionless tracking

AI 甚至帮我锁定了技术栈:Flutter 用于跨平台 UI,GetX 处理轻量级状态管理,Drift 负责本地数据持久化。

四、 PoC 验证与性能表现 (Performance)

Section titled “四、 PoC 验证与性能表现 (Performance)”

在接入 GLM-4.7 后,最令我惊讶的是它的“吞吐速度”和“理解深度”。

仅仅用了 2-3 天,GLM-4.7 就辅助我完成了 HeartPetBond 的 5 个核心页面(PoC 阶段):

  • Welcome Page: 引导用户建立连接。
  • Ready State: 准备就绪的各种状态检查。
  • Home Page: 核心的记录与展示流。
  • Settings: 复杂的配置项管理。

代码一次通过率极高,尤其是在处理 Flutter 的 Widget 树嵌套时,很少出现括号不匹配或逻辑断层。

这是一笔极其划算的账:

  • PoC 阶段总消耗:约 3 亿 (300M) tokens
  • 预估 MVP 阶段:完成 15 个页面并在 App Store 上架,预计消耗 30 亿 (3B) tokens

即使是这样庞大的消耗量,相比 Opus 4.5 动辄数百美元的账单,GLM-4.7 的成本仅为其 1/7 左右(月费约 ¥200 的 Pro 订阅基本能覆盖 MVP 开发需求)。

经过实战检验,结论非常清晰:用 GLM-4.7 + Claude Code + BMAD 构建移动应用是完全可行的,且极具性价比。

  1. 极高的性价比:GLM-4.7 是 Opus 4.5 的完美“平替”。虽然在极致推理上略逊一筹,但在日常代码生成任务中,它的表现远超 DeepSeek V3,且价格亲民。
  2. 长窗口稳定性:200K 的 Context Window 是真实的。在加载了大量 BMAD 规范文档和现有代码后,它依然能保持清醒,没有出现“灾难性遗忘”。
  3. 工程化落地:配合 Claude Code 强大的工具链,GLM-4.7 能够胜任复杂的重构和调试任务。
  1. 推理微瑕:在极少数复杂的业务流设计中,GLM-4.7 的逻辑链(Reasoning)偶尔会缺失一环,不如 Opus 4.5 缜密。但这完全可以通过人工 Code Review 和更明确的 Prompt 来修正。
  2. 多模态短板:当前版本的 API 对多模态(图片/文件输入)支持尚不完善,需要配置额外的 zai-mcp-server 来弥补这一能力。

如果你也是一名独立开发者,正在寻找一个既聪明又不会让你破产的 AI 结对编程伙伴,Claude Code + GLM-4.7 + BMAD 绝对是目前最值得尝试的组合。

Life is compounding. Start building your bond today.

ClaudeCode Workflow Studio:可视化 AI 工作流自动化编辑器

ClaudeCode Workflow Studio:可视化 AI 工作流自动化编辑器

Section titled “ClaudeCode Workflow Studio:可视化 AI 工作流自动化编辑器”

Claude Code 是 Anthropic 官方的 AI 辅助开发 CLI 工具,通过其 .claude 配置文件拥有强大的自动化系统。然而,创建包含多个子代理、条件分支和用户交互的复杂工作流需要手动编辑 markdown 和 YAML 文件。ClaudeCode Workflow Studio(cc-wf-studio)由 breaking-brake 开发,为 VSCode 带来了可视化、拖拽式的工作流编辑器,使工作流创建变得直观且易于上手。

ClaudeCode Workflow Studio

ClaudeCode Workflow Studio 是一个 VSCode 扩展,为 Claude Code 提供了可视化工作流编辑器。它允许你:

  • 可视化设计工作流 - 通过拖拽节点到画布上进行设计
  • 无需代码配置 - 通过 UI 设置子代理、技能和 MCP 工具
  • 一键导出 - 自动生成 .claude/agents/.claude/commands/ 文件
  • 团队协作 - 通过 Slack 分享工作流,带预览卡片

GitHub 仓库: breaking-brake/cc-wf-studio VSCode 市场: Open VSX 许可证: AGPL-3.0-or-later 版本: 3.9.1(截至 2025 年 12 月)

cc-wf-studio 的核心是其拖拽式画布。无需编写 markdown 和 YAML,你可以通过视觉连接节点来定义工作流逻辑:

  • 提示节点 - 定义可重用的提示模板,支持 {{变量}} 替换
  • 子代理节点 - 配置具有自定义系统提示和工具权限的自主 AI 代理
  • 技能节点 - 集成来自个人或项目目录的 Claude Code 技能
  • MCP 节点 - 连接到模型上下文协议工具进行外部集成
  • 控制流节点 - IfElse(二分分支)、Switch(多路分支)、AskUserQuestion(用户决策)

最突出的功能之一是 AI 辅助优化。不同于一次性生成工作流,你可以通过对话迭代改进:

  1. 点击”Edit with AI”按钮(✨ 星形图标)
  2. 用自然语言描述你的更改(最多 2000 字符)
  3. AI 会增量修改你的工作流,保留现有工作
  4. 重复直到满意

这种对话方式通过多轮反馈构建工作流,AI 维护对话历史并增量应用更改。

示例提示:

  • “添加一个验证输入数据的子代理节点”
  • “将错误处理器连接到日志记录子代理”
  • “将 AskUserQuestion 节点更改为 3 个选项:高、中、低”

当工作流准备就绪时,点击导出即可生成:

  • .claude/agents/*.md - 带有系统提示和工具配置的子代理定义
  • .claude/commands/*.md - 执行整个工作流的斜杠命令定义

导出的文件可以立即与 Claude Code CLI 一起使用。无需手动编辑。

对于团队,cc-wf-studio 提供 Slack 集成:

  • 将工作流导出到 Slack 频道,带预览卡片
  • 团队成员的一键导入链接
  • 无需离开聊天工作区即可无缝协作
  1. 打开 VSCode 扩展(Ctrl+Shift+X / Cmd+Shift+X
  2. 搜索”Claude Code Workflow Studio”
  3. 点击安装

该扩展也可在 Open VSX 上获取:

  1. 安装 Open VSX 扩展
  2. 搜索”cc-wf-studio”
  3. 点击安装
  1. 克隆仓库:

    Terminal window
    git clone https://github.com/breaking-brake/cc-wf-studio.git
    cd cc-wf-studio
  2. 安装依赖:

    Terminal window
    npm install
    cd src/webview && npm install && cd ../..
  3. 构建扩展:

    Terminal window
    npm run build
  4. 打包并安装:

    Terminal window
    npx vsce package
  5. 通过 VSCode 的”从 VSIX 安装…”选项安装生成的 .vsix 文件

  • Ctrl+Shift+P / Cmd+Shift+P
  • 输入”Claude Code Workflow Studio: Open Editor”
  • 按回车键

首次用户会获得交互式入门教程(支持英语、日语、韩语、简体中文和繁体中文)。

左侧调板按部分组织:

  • 基本节点:提示(模板)、子代理(AI 任务)
  • 控制流:IfElse(二分分支)、Switch(多路分支)、AskUserQuestion(用户决策)
  • 集成:技能(Claude Code 技能)、MCP(外部工具)

步骤:

  1. 从调板拖拽节点到画布上
  2. 点击节点在右侧面板编辑其属性
  3. 通过从输出端口(右侧)拖拽到输入端口(左侧)来连接节点
  4. 配置节点特定设置(提示、变量、条件)
  • 在工具栏中输入工作流名称
  • 点击保存将 JSON 存储在 .vscode/workflows/
  • 点击导出生成 .claude 文件

定义带有模板变量的可重用提示模板:

你好 {{userName}},你今天的任务是 {{taskType}}。

变量会自动检测和验证。在运行时,值会动态替换。

配置具有以下功能的自主 AI 代理:

  • 系统提示 - 代理的自定义指令
  • 工具权限 - 选择代理可以访问的工具(读取、写入、Bash 等)
  • 模型选择 - Sonnet(平衡)、Opus(复杂任务)、Haiku(速度)

将 Claude Code 技能集成到工作流中:

  • 个人技能 - 来自 ~/.claude/skills/ 供个人使用
  • 项目技能 - 来自 .claude/skills/ 用于团队协作
  • 创建新技能 - 通过引导表单直接从可视化编辑器构建技能
  • 浏览和选择 - 带有描述的交互式技能浏览器

集成模型上下文协议工具:

  1. 从下拉列表中选择 MCP 服务器(在 Claude Code 中配置)
  2. 浏览可用工具或使用搜索进行过滤
  3. 根据工具模式配置动态表单生成的参数
  4. 实时验证和错误消息

先决条件: MCP 服务器必须先在 Claude Code 设置中配置。

用于二分条件的固定 2 路分支(真/假、是/否、成功/错误)。

可变多路分支(2-N 路),具有动态情况管理。适合复杂的路由逻辑。

  1. 上传文档提示 - 询问用户文件路径
  2. PDF 提取器技能(个人)- 从 PDF 文件中提取文本
  3. 询问用户 - “处理类型?” → 摘要 / 翻译 / 分析
  4. 文档处理器技能(项目)- 团队共享的处理逻辑
  5. 格式化结果子代理 - 创建最终输出
  1. 代码扫描器子代理 - 识别问题
  2. 询问用户 - “优先级别?” → 仅关键 / 所有问题
  3. 过滤结果子代理
  4. 生成修复建议子代理

示例 3:使用 Playwright 进行 Web 自动化

Section titled “示例 3:使用 Playwright 进行 Web 自动化”
  1. 输入 URL提示 - 询问用户目标网站
  2. Playwright 导航MCP 工具 - 打开浏览器并导航到 URL
  3. 询问用户 - “操作类型?” → 截图 / 提取文本 / 点击元素
  4. Playwright 操作MCP 工具 - 执行选定的浏览器操作
  5. 处理结果子代理 - 分析和格式化输出

可视化编辑器 UI 和所有导出的文件会自动适应你的 VSCode 显示语言设置(vscode.env.language)。支持的语言:

  • 英语(默认)
  • 日语
  • 韩语
  • 简体中文(zh-CN)
  • 繁体中文(zh-TW/zh-HK)

这确保了编辑体验和生成的工作流都可以为国际团队访问。

  • 每个工作流最多 50 个节点
  • AI 处理超时(默认 90 秒,可配置:30s-5min)
  • AI 优化请求限制为 2000 字符
  • 对话历史仅在活动会话期间存储
  • 需要活动的 Claude Code CLI 安装

工作流无法保存

  • 确保工作流名称仅包含字母、数字、连字符和下划线
  • 检查所有必填字段是否已填写
  • 在 VSCode 通知中查找错误消息

导出失败

  • 验证所有节点都有有效的配置
  • 确保节点名称唯一
  • 检查 .claude 目录的写入权限

无法加载工作流

  • 点击刷新按钮(↻)更新列表
  • 验证文件存在于 .vscode/workflows/
  • 检查 JSON 文件是否损坏

本项目在 GNU Affero General Public License v3.0(AGPL-3.0-or-later)下获得许可。

关键点:

  • 你可以使用、修改和分发软件
  • 如果你修改和部署(包括作为网络服务),你必须根据 AGPL-3.0 使源代码可用
  • 允许商业使用,但不允许专有修改

版权所有 (c) 2025 breaking-brake

基于 React Flow 构建 • 由 Claude Code 驱动 • 灵感来自 Dify

ClaudeCode Workflow Studio 弥合了技术能力和可访问性之间的差距。通过将可视化编程引入 Claude Code 工作流,它:

  1. 降低进入门槛 - 无需理解 markdown/YAML 结构
  2. 加速开发 - 视觉反馈减少试错
  3. 促进协作 - 团队可以直观地查看和审查工作流
  4. 无缝集成 - 导出文件直接与 Claude Code CLI 配合使用

随着 Claude Code 生态系统的不断发展,像 cc-wf-studio 这样的工具展示了社区扩展如何增强核心平台的能力。

Ghostty 创始人的 Vibe Coding:与 Claude 的对话式编程之旅

Ghostty 创始人的 Vibe Coding:与 Claude 的对话式编程之旅

Section titled “Ghostty 创始人的 Vibe Coding:与 Claude 的对话式编程之旅”

Ghostty(现代 GPU 加速终端模拟器)的创始人 Mitchell Hashimoto 想要改进 macOS 更新功能时,他没有直接写代码 —— 他进行了一场对话。在他称之为 “vibe coding”(氛围编程)的精彩会话中,Mitchell 与 Claude 配对,通过对话、探索和共同发现来迭代改进代码库。

这并不是关于 AI 取代开发者。而是关于 AI 作为协作伙伴 —— 转录记录展示了美妙的一面:AI 发现人类容易忽略的问题,人类提供方向和上下文,两者共同构建出任何一方都无法单独完成的东西。

Ghostty 终端

Vibe coding 是一种对话式的软件开发方法,开发者与 AI 通过自然语言对话一起工作。与其将 AI 视为命令执行工具,不如将其视为结对程序员 —— 一起讨论、探索和迭代。

在 Mitchell 的会话中(从 AmpCode 上的真实编码对话捕获),流程是这样的:

  1. 咨询预言家 — 让 Claude 分析代码以寻找改进点
  2. 讨论 — 一起讨论发现,共同做出决策
  3. 实施 — 在 Claude 的协助下编写代码
  4. 迭代 — 从失败中学习,调整方法,再次尝试
  5. 测试 — 验证更改有效,添加测试以建立信心

会话内容:改进 Ghostty 的更新功能

Section titled “会话内容:改进 Ghostty 的更新功能”

Mitchell 以一个简单的请求开始:“@macos/Sources/Features/Update 功能还有其他可以改进的地方吗?不要写任何代码。咨询预言家。”

“预言家”——处于分析模式的 Claude——识别出几类改进:

  1. 循环引用UpdateDriver.showUpdaterError 中的重试闭包强引用了 self,造成内存泄漏
  2. 线程问题 — UI 面向类型应标记为 @MainActor
  3. 进度值错误 — 进度值需要限制在 [0, 1] 范围内以防止视觉故障
  4. 不可取消的定时器 — “无更新”自动关闭任务可能触发过期更新
  5. 吞没的错误try? 隐藏了 startUpdater() 中的潜在失败
  1. ReleaseNotes 解析 — 语义版本检测、git 哈希处理、边界情况
  2. UpdateState Equatable — 下载/错误状态的相等性测试
  3. ViewModel 格式化 — 每个状态的文本/图标/颜色映射
  4. 进度数学 — 除零、nil 值、超调场景
  5. 自动关闭计时 — 验证转换和任务取消
  • 为辅助技术添加无障碍标签
  • 限制/缩写过长的错误消息以防止 UI 溢出

这次会话的精彩之处在于来回对话:

Mitchell: “停停停。撤销所有 main actor 的东西。”

Claude: “完成!我已经撤销了所有 @MainActor 更改。构建现在成功…”

Mitchell: “对于错误消息,与其截断,是否有 SwiftUI 标准方式来做到这一点?”

Claude: “你说得完全正确!SwiftUI 有 .lineLimit().truncationMode() 来处理…”

当 AI 走上有问题的路径时,人类提供纠正。当人类提出问题时,AI 建议更好的方法。他们互相学习。

retry: { [weak self, weak viewModel] in
viewModel?.state = .idle
DispatchQueue.main.async { [weak self] in
guard let self else { return }
// ... 代码的其余部分
}
}
let progress = min(1, max(0, Double(download.progress) / Double(expectedLength)))
ProgressView(value: progress)
@State private var resetTask: Task<Void, Never>?
onChange(of: model.state) { newState in
resetTask?.cancel() // 取消任何现有任务
if case .notFound = newState {
resetTask = Task { [weak model] in
try? await Task.sleep(for: .seconds(5))
guard !Task.isCancelled, case .notFound? = model?.state else { return }
model?.state = .idle
}
}
}
.accessibilityLabel(model.text)

简单但关键 —— 辅助技术现在可以向视障用户宣布更新状态。

会话添加了三个新的测试文件:

  • UpdateStateTests.swift — 150+ 行测试所有状态的 Equatable 一致性
  • UpdateViewModelTests.swift — 300+ 行测试格式化(文本、图标、颜色)
  • ProgressTests.swift — 150+ 行测试进度数学边界情况

预言家捕获了循环引用和进度值错误,这些并不明显。代码审查工具通常也会错过这些 —— 让 AI 以全新的眼光分析代码可以捕获不同类别的问题。

当 AI 建议将所有内容标记为 @MainActor 时,Mitchell 认识到这会导致级联编译问题并要求撤销。关于架构和权衡的人类判断仍然至关重要。

会话经历多次尝试:

  • 第一次 @MainActor 尝试失败 → 撤销并尝试不同方法
  • 手动错误截断 → “是否有 SwiftUI 标准方式?” → 使用 .truncationMode()

每次失败都会教会一些东西。对话使快速迭代成为可能。

预言家建议全面的单元测试。与修复一起编写测试确保改进正确工作并防止回归。

UX 改进不是花哨的功能 —— 它们是无障碍标签和适当的文本截断。这些使软件对每个人都可用。

根据 Mitchell 的会话,这是 vibe coding 的模式:

  1. 提问,不要命令 — “你看到什么改进?” vs “修复这个 bug”
  2. 实施前讨论 — 谈论发现,理解原因
  3. 增量实施 — 一次做一个更改,验证其有效
  4. 纠正路线 — 不要害怕说”停止,撤销那个”
  5. 添加测试 — 通过测试覆盖建立信心
  6. 庆祝学习 — 每次失败都是学习机会
  • Claude Code — 对话的 AI 结对程序员
  • Swift/SwiftUI — Ghostty 的 macOS 前端
  • Sparkle — macOS 更新框架
  • Swift Testing — 现代测试框架

Vibe coding 不是让 AI 为你写代码。而是关于 与代码对话 —— AI 带来分析超能力,人类带来判断和上下文,共同创造更好的东西。

Mitchell 的会话展示了编程的未来:不是人类被 AI 取代,而是人类被 AI 增强 —— 一起工作,互相学习,通过对话构建更好的软件。

对 Ghostty 更新功能的改进 —— 更安全的代码、更好的测试、改进的无障碍性 —— 证明了当开发者将 AI 视为协作伙伴而非仅仅是工具时可能发生的事情。

Lovcode:Claude Code 桌面伴侣应用,支持聊天历史浏览与配置管理

Claude Code 彻底改变了 AI 辅助开发的方式,但管理其大量的配置文件、聊天历史和自定义技能仍然颇具挑战。Lovcode 应运而生 —— 这是一款精美的桌面伴侣应用,将所有 Claude Code 管理需求集中到一个统一的界面中。

Lovcode 桌面伴侣

Lovcode 是一款跨平台桌面应用程序,专为 AI 编程工具设计,主要聚焦于 Claude Code。它提供了图形化界面来浏览聊天历史、管理配置、命令、技能、钩子等 —— 无需接触命令行。

GitHub 仓库: MarkShawn2020/lovcode 作者: Mark Shawn (@markshawn2020) 许可证: Apache-2.0 支持平台: macOS • Windows • Linux 最新版本: v0.19.0

浏览和搜索所有项目中的 Claude Code 对话记录,支持全文搜索功能。无需翻找 JSON 文件,快速找到过去的解决方案、代码片段或讨论内容。

~/.claude/commands/ 目录查看和管理所有斜杠命令。通过简洁的界面编辑、创建和组织命令。

可视化配置和监控模型上下文协议(MCP)服务器集成。无需编辑配置文件即可管理连接、设置和状态。

管理可重用的技能模板 —— 从一个地方安装、配置和组织技能。

配置在 Claude Code 会话期间特定事件执行的自动化触发器。

直接从 UI 管理具有自定义模型和配置的 AI 代理。

自定义响应格式和显示偏好。

浏览和安装社区贡献的模板和配置。

层级技术
前端React 19、TypeScript、Tailwind CSS、Vite
后端Rust、Tauri 2
UI 组件shadcn/ui
状态管理Jotai
搜索Tantivy(全文搜索)

Tauri 2 与 React 的结合提供了一个轻量级、快速且具有原生感觉的桌面应用程序,具有出色的跨平台支持。

GitHub Releases 页面 下载适用于您平台的最新版本。

可用的安装程序:

  • macOS — .dmg 安装程序
  • Windows — .exe 安装程序
  • Linux — .AppImage、.deb 或 .rpm 包

如果您更喜欢从源码构建:

Terminal window
# 克隆仓库(包含子模块)
git clone --recursive https://github.com/markshawn2020/lovcode.git
cd lovcode
# 安装依赖
pnpm install
# 运行开发模式
pnpm tauri dev
# 构建分发版本
pnpm tauri build

启动时,Lovcode 会扫描 Claude Code 项目。选择您的项目后可以:

  • 查看支持全文搜索的聊天历史
  • 浏览命令使用统计
  • 访问项目特定的配置

配置部分提供对以下内容的集中访问:

  • 命令 — 查看和编辑斜杠命令
  • MCP 服务器 — 管理服务器连接
  • 技能 — 配置技能模板
  • 钩子 — 设置自动化触发器
  • 子代理 — 管理 AI 代理配置
  • 输出样式 — 自定义响应格式

版本 0.18.0 引入了命令趋势图表,显示您随时间的使用模式。追踪您最常使用的命令,识别优化机会。

诊断视图提供文件统计和系统健康信息,帮助您排查配置问题。

Lovcode 积极维护,频繁更新:

  • v0.19.0(2025年12月29日)— Logo 生成与管理面板,优化折叠状态下的标签组显示
  • v0.18.2(2025年12月28日)— 修复周模式下命令统计数据膨胀问题
  • v0.18.0(2025年12月28日)— 添加命令趋势图表
  • v0.17.0(2025年12月28日)— 将 Claude Code 和 Codex 文档嵌入为子模块
  • v0.16.0(2025年12月27日)— StatuslineView 编辑器和市场支持
  • v0.15.0(2025年12月27日)— LLM 提供商分析
  • 集中管理 — 不再需要在 ~/.claude 目录中翻找
  • 可视化配置 — 所有 Claude Code 功能的 GUI 设置
  • 快速访问 — 即时查找过去的对话和解决方案
  • 更好的组织 — 保持技能、命令和钩子的有序性
  • 一致性 — 在团队成员之间共享配置和模板
  • 入职培训 — 帮助新开发者了解可用工具
  • 文档支持 — 内置 Claude Code 和 Codex 文档
  • 标准执行 — 强制执行一致的命令和技能使用
功能Lovcode纯命令行Web 仪表板
聊天历史搜索✓ 全文搜索手动 grep有限
可视化配置编辑器✓ 原生文本编辑器Web 表单
离线能力✓ 是✓ 是✗ 否
原生性能✓ 是✓ 是✗ 否
跨平台✓ 是✓ 是✓ 是

Lovcode 采用 Apache-2.0 许可证开源。欢迎贡献!

  • 在 GitHub 上 Star 项目:MarkShawn2020/lovcode
  • 通过 GitHub Issues 报告问题
  • 提交拉取请求以实现功能和修复

Lovcode 通过提供精美的桌面界面来管理 AI 编程助手的所有方面,填补了 Claude Code 生态系统中的重要空白。无论您是希望组织配置的独立开发者,还是正在制定标准的团队成员,Lovcode 都能在一个美观、高性能的包中提供您所需的工具。

今天就从 GitHub Releases 下载,掌控您的 Claude Code 工作流程。


相关链接:

Loki Mode:用37个AI智能体将PRD转化为盈利产品的自主系统

Loki Mode:用37个AI智能体将PRD转化为盈利产品的自主系统

Section titled “Loki Mode:用37个AI智能体将PRD转化为盈利产品的自主系统”

“将PRD转化为完全部署的、产生收入的产品,无需任何人工干预。”

如果只需提供一个产品需求文档,就能自动得到一个完整部署的初创公司——而且你不需要编写任何代码,会怎样?让我介绍Loki Mode,这是一个Claude Code技能,它协调37个专业AI智能体跨越6个集群,自动构建、部署和运营整个业务。

Loki Mode是为Claude Code设计的多智能体自主创业系统。只需说**“Loki Mode”**并提供一个PRD,系统就会处理一切:

PRD → 竞争研究 → 架构设计 → 开发 → 测试 → 部署 → 营销 → 收入

asklokesh创建的这个雄心勃勃的项目,正在推动AI智能体协作可能性的边界。

Loki Mode将其AI劳动力组织成专业集群,每个集群都有特定的领域重点:

  • eng-frontend - 前端实现
  • eng-backend - 后端服务
  • eng-database - 数据库架构
  • eng-mobile - 移动开发
  • eng-api - API设计与实现
  • eng-qa - 质量保证
  • eng-perf - 性能优化
  • eng-infra - 基础设施搭建
  • ops-devops - CI/CD流水线
  • ops-sre - 站点可靠性工程
  • ops-security - 安全措施
  • ops-monitor - 监控系统
  • ops-incident - 事件响应
  • ops-release - 发布管理
  • ops-cost - 成本优化
  • ops-compliance - 合规性管理
  • biz-marketing - 营销策略
  • biz-sales - 销售运营
  • biz-finance - 财务管理
  • biz-legal - 法律事务
  • biz-support - 客户支持
  • biz-hr - 人力资源
  • biz-investor - 投资者关系
  • biz-partnerships - 商业合作
  • 数据(3个):机器学习、数据工程、数据分析
  • 产品(3个):产品经理、设计、技术写作
  • 增长(4个):增长黑客、社区、成功、生命周期
  • 审查(3个):并行代码、业务和安全审查员
类别能力
多智能体系统37个智能体跨越6个专业集群
并行代码审查3个专业审查员同时运行
质量门控14个自动化门控包括安全扫描、负载测试、可访问性
部署AWS、GCP、Azure、Vercel、Railway,支持蓝绿和金丝雀策略
业务运营营销、销售、HR、法务、财务、投资者关系智能体
可靠性熔断器、死信队列、指数退避、状态恢复
可观测性外部告警(Slack、PagerDuty)、备份/恢复、日志轮转
Terminal window
cd ~/.claude/skills
# 获取最新版本号
VERSION=$(curl -s https://api.github.com/repos/asklokesh/claudeskill-loki-mode/releases/latest | grep tag_name | cut -d'"' -f4 | tr -d 'v')
# 下载并解压
curl -L -o loki-mode.zip "https://github.com/asklokesh/claudeskill-loki-mode/releases/download/v${VERSION}/loki-mode-claude-code-${VERSION}.zip"
unzip loki-mode.zip && rm loki-mode.zip
Terminal window
# 用于所有项目
git clone https://github.com/asklokesh/claudeskill-loki-mode.git ~/.claude/skills/loki-mode
# 用于特定项目
git clone https://github.com/asklokesh/claudeskill-loki-mode.git .claude/skills/loki-mode
Terminal window
mkdir -p ~/.claude/skills/loki-mode/references
curl -o ~/.claude/skills/loki-mode/SKILL.md https://raw.githubusercontent.com/asklokesh/claudeskill-loki-mode/main/SKILL.md
curl -o ~/.claude/skills/loki-mode/references/agents.md https://raw.githubusercontent.com/asklokesh/claudeskill-loki-mode/main/references/agents.md
curl -o ~/.claude/skills/loki-mode/references/deployment.md https://raw.githubusercontent.com/asklokesh/claudeskill-loki-mode/main/references/deployment.md
curl -o ~/.claude/skills/loki-mode/references/business-ops.md https://raw.githubusercontent.com/asklokesh/claudeskill-loki-mode/main/references/business-ops.md

自主运行器会处理一切:

Terminal window
# 使用PRD运行(完全自主,支持自动恢复)
./autonomy/run.sh ./docs/requirements.md
# 交互式运行
./autonomy/run.sh

运行器会:

  1. 检查所有前置条件(Claude CLI、Python、Git等)
  2. 验证技能安装
  3. 初始化.loki/目录
  4. 启动状态监控器(每5秒更新一次)
  5. 启动带有实时输出的Claude Code
  6. 在速率限制或中断时自动恢复
  7. 持续运行直到完成或达到最大重试次数
Terminal window
# 使用自主权限启动Claude Code
claude --dangerously-skip-permissions
# 然后说:
> Loki Mode
# 或使用特定的PRD:
> Loki Mode with PRD at ./docs/requirements.md
阶段描述
0. 启动创建.loki/目录结构,初始化状态
1. 发现解析PRD,通过web搜索进行竞争研究
2. 架构技术栈选择与自我反思
3. 基础设施配置云服务、CI/CD、监控
4. 开发使用TDD实现,并行代码审查
5. 质量保证14个质量门控、安全审计、负载测试
6. 部署蓝绿部署,错误时自动回滚
7. 业务营销、销售、法务、支持设置
8. 增长持续优化、A/B测试、反馈循环

每个任务都经过3个并行审查员:

实现 → 审查(3个并行)→ 汇总 → 修复 → 重新审查 → 完成
├─ 代码审查员(opus)
├─ 业务逻辑审查员(opus)
└─ 安全审查员(opus)
严重程度操作
严重/高/中阻塞。立即修复。重新审查。
添加// TODO(review): ...注释,继续
外观问题添加// FIXME(nitpick): ...注释,继续

运行时,Loki Mode会创建:

.loki/
├── state/ # 编排器和智能体状态
├── queue/ # 任务队列(待处理、进行中、已完成、死信)
├── messages/ # 智能体间通信
├── logs/ # 审计日志
├── config/ # 配置文件
├── prompts/ # 智能体角色提示
├── artifacts/ # 发布、报告、备份
└── scripts/ # 辅助脚本
.loki/config/circuit-breakers.yaml
defaults:
failureThreshold: 5
cooldownSeconds: 300
.loki/config/alerting.yaml
channels:
slack:
webhook_url: "${SLACK_WEBHOOK_URL}"
severity: [critical, high]
变量默认值描述
LOKI_MAX_RETRIES50最大重试次数
LOKI_BASE_WAIT60基础等待时间(秒)
LOKI_MAX_WAIT3600最大等待时间(1小时)
LOKI_SKIP_PREREQSfalse跳过前置条件检查

Loki Mode包含全面的测试套件:

Terminal window
# 运行所有测试
./tests/run-all-tests.sh
# 单独的测试套件
./tests/test-bootstrap.sh # 目录结构、状态初始化
./tests/test-task-queue.sh # 队列操作、优先级
./tests/test-circuit-breaker.sh # 故障处理、恢复
./tests/test-agent-timeout.sh # 超时、进程卡死处理
./tests/test-state-recovery.sh # 检查点、恢复

项目在examples/目录中包含测试PRD:

PRD复杂度时间描述
simple-todo-app.md~10分钟基本待办应用 - 测试核心功能
api-only.md~10分钟仅REST API - 测试后端智能体
static-landing-page.md~5分钟仅HTML/CSS - 测试前端/营销
full-stack-demo.md~30-60分钟完整书签管理器 - 全面测试
特性基础技能Loki Mode
智能体数量137
集群-6
代码审查手动并行3审查员
部署多云
业务运营全栈
状态恢复检查点/恢复
告警Slack/PagerDuty

可选集成Vibe Kanban以实现可视化任务监控:

Terminal window
npx vibe-kanban
./scripts/export-to-vibe-kanban.sh

优势:

  • 所有37个智能体的可视化进度跟踪
  • 需要时手动干预/优先级调整
  • 可视化差异的代码审查
  • 多项目仪表板
  • 带有--dangerously-skip-permissions标志的Claude Code
  • 用于竞争研究和部署的互联网访问
  • 云服务提供商凭证(用于部署阶段)
  • Python 3(用于测试套件)

Loki Mode正在积极开发中,最近的发布版本包括:

  • 代码库分析模式(v2.7.0)
  • 统一自主运行器(v2.3.0)
  • Vibe Kanban集成(v2.2.0)
  • 带自动恢复的自主包装器(v2.1.0)

准备好让AI为你构建下一个初创公司了吗?

  1. 使用上述方法之一安装Loki Mode
  2. 创建一个描述你产品想法的PRD
  3. 运行./autonomy/run.sh your-prd.md
  4. 观看37个智能体协作将你的愿景变为现实

自主开发的未来已经到来——它精通Claude语言。


项目仓库asklokesh/claudeskill-loki-mode

关键词:claude-code、claude-skills、ai-agents、autonomous-development、multi-agent-system、sdlc-automation、startup-automation、devops、mlops、deployment-automation

Quotio:告别 AI 账号切换烦恼——一款统一管理 Claude、Gemini、OpenAI、Qwen 和 Antigravity 的 macOS 菜单栏应用

不再为管理多个 AI 账号而烦恼。 Quotio 是一款精美的原生 macOS 菜单栏应用,可统一管理您的 Claude、Gemini、OpenAI、Qwen 和 Antigravity 订阅——提供实时配额追踪和智能自动故障转移功能,支持 Claude Code、OpenCode 和 Droid 等 AI 编码工具。

作为开发者,我们在日常工作中越来越依赖多个 AI 编码助手。你可能使用 Claude Code 进行智能代码补全,使用 GitHub Copilot 获取内联建议,使用 Cursor 体验 AI 驱动的 IDE 功能,以及使用各种基于 OpenAI 的工具处理不同任务。每个服务都带来各自的:

  • 订阅和账单管理
  • API 密钥和身份验证
  • 使用配额和速率限制
  • 独立的仪表板和管理界面

这种碎片化造成了持续的开销。你需要在多个浏览器标签页之间切换,在不同的 CLI 配置之间转换,并且不可避免地在一个服务达到速率限制时,另一个服务却闲置着。Quotio 应运而生——这是一个将所有 AI 订阅集中管理的统一解决方案。

Quotio 是一款原生 macOS 应用程序,为多个 AI 提供商服务提供统一的配额监控和请求路由。由开发者 Trong Nguyen(nguyenphutrong)创建,Quotio 具有两个互补的功能:

  1. 可视化仪表板 – 在一个精美的界面中追踪所有 AI API 使用限制
  2. 可选本地代理 – 通过智能负载均衡和故障转移,跨多个提供商账户路由请求

Quotio 提供两种操作模式以满足不同需求:

适合只想了解 AI 使用情况的用户的轻量级模式:

  • 通过读取已安装 CLI 工具的身份验证文件进行实时配额追踪
  • 支持 Claude Code、Codex CLI、Gemini CLI、GitHub Copilot、Cursor 和 Antigravity
  • macOS 菜单栏集成,一目了然地查看配额状态
  • 配额不足时的系统通知
  • 无需代理服务器——资源占用最小

包含所有仅配额模式功能,以及强大的代理能力:

  • 用于请求路由和负载均衡的本地代理服务器
  • 基于提供商的 OAuth 身份验证
  • 配额用尽时账户间的自动故障转移
  • 安全代理访问的 API 密钥管理
  • 全面的使用统计和请求日志
  • CLI 代理工具的自动配置

Quotio 在单一界面中统一管理 10 个 AI 提供商

提供商仅配额模式完整模式
Claude
Gemini
OpenAI
Qwen
Antigravity
GitHub Copilot
Cursor
Codex CLI

菜单栏集成提供一目了然的配额状态:

  • 提供商符号(1-2 个字母)+ 跨模型的最低百分比
  • 示例:"G:95% C:42% CP:88%"(Gemini 95%,Claude 42%,Copilot 88%)
  • 颜色编码指示器:绿色(>50%)、橙色(20-50%)、红色(<20%)
  • 可自定义的显示选项——显示/隐藏提供商、更改颜色模式

在完整模式下,Quotio 充当智能代理:

┌─────────────────┐
│ 编码工具 │
│ (Claude Code) │
└────────┬────────┘
┌─────────────────┐
│ Quotio 代理 │
│ (localhost) │
└────────┬────────┘
┌─────┬─────┬─────┬─────┐
│ Claude│Gemini│OpenAI│Qwen│
│ 账户1│账户1│账户1│账户1│
└─────┴─────┴─────┴─────┘
(配额用尽时自动故障转移)

当一个账户达到配额限制时,Quotio 会自动将请求路由到另一个可用账户,确保工作流程不中断。

持久的 macOS 菜单栏存在让你在不中断工作流程的情况下随时了解情况:

  • 始终可见的配额状态
  • 快速访问详细仪表板
  • 配额不足通知
  • 语言支持:英语和越南语
  • macOS 14.6 或更高版本
  • 受支持的 AI 提供商账户(Claude、Gemini、OpenAI 等)
  1. GitHub Releases 页面下载 Quotio
  2. 启动应用并完成引导流程
  3. 选择您的模式:仅配额(轻量级)或完整模式(含代理)
  4. 通过 OAuth 或手动身份验证连接您的账户
  5. 配置您的编码工具以使用 Quotio 代理(完整模式)

对于 AI 编码工具,Quotio 提供自动配置:

Terminal window
# Quotio 可以自动配置这些工具:
- Claude Code
- OpenCode
- Droid
- Cursor

场景:您是一名开发者,日常工作中使用 Claude Code,但也有 Gemini 和 OpenAI API 用于副业项目。

解决方案:Quotio 让您一目了然地查看所有配额,并在一个提供商耗尽时自动路由请求。

场景:您的团队拥有跨不同提供商的多个 AI 订阅,团队成员在高峰时段经常遇到速率限制。

解决方案:为每个提供商配置多个账户,实现智能负载分配和自动故障转移。

场景:您希望在使用 AI 订阅时最大化利用率,然后再升级到更高层级。

解决方案:使用 Quotio 的详细使用统计了解消费模式,并就订阅升级做出明智决策。

采用现代 macOS 开发实践构建:

  • 框架:SwiftUI 与 AppKit 集成
  • 架构:MVVM 与 Actor 模型,确保线程安全的服务
  • 并发:Swift Concurrency(async/await、actors)
  • 本地化:英语和越南语支持
  • 自动更新:Sparkle 框架实现无缝更新

项目结构遵循清洁架构原则:

Quotio/
├── Models/ # 核心数据结构
├── ViewModels/ # @Observable 状态管理器
├── Views/ # SwiftUI 屏幕和组件
├── Services/ # 配额获取器、代理管理器、API 客户端
└── Managers/ # 应用级协调的单例
功能Quotio手动管理其他解决方案
多提供商支持✅ 10+ 提供商❌ 一次一个⚠️ 有限
实时配额追踪✅ 菜单栏 + 仪表板❌ 仅浏览器标签页⚠️ 经常延迟
自动故障转移✅ 智能路由❌ 手动切换⚠️ 基础路由
原生 macOS 应用✅ 菜单栏集成❌ 基于 Web⚠️ Electron 臃肿
开源✅ 完全开源N/A❌ 通常是专有的
离线能力✅ 无需互联网即可工作❌ 需要互联网⚠️ 有限

截至 0.2.2 版本,Quotio 正在积极开发中,最近新增的功能包括:

  • 用于轻量级使用的仅配额模式
  • Cursor 支持
  • 增强的代理管理
  • 国际化支持

查看 CHANGELOG.md 了解最新更新。

Quotio 解决了使用多个 AI 服务的开发者面临的真正痛点。通过提供统一的配额监控、智能请求路由和无缝故障转移,它将管理多个 AI 订阅的碎片化体验转变为连贯、高效的工作流程。

无论您是管理个人 AI 订阅的个人开发者,还是拥有多个提供商账户的团队成员,Quotio 都能为您提供最大化 AI 生产力所需的工具。

立即下载 Quotiogithub.com/nguyenphutrong/quotio


Happy Claude Skills:Claude Code 实用插件合集

Happy Claude Skills:Claude Code 实用插件合集

Section titled “Happy Claude Skills:Claude Code 实用插件合集”

Claude Code 的插件系统允许开发者通过自定义技能来扩展其功能。虽然官方插件市场正在不断发展,但社区已经开始创建有用的插件。iamzhihuix 贡献的 happy-claude-skills 就是这样一套用于常见生产力任务的实用插件集合。

Happy Claude Skills

happy-claude-skills 是一套为 Claude Code 设计的开源技能插件集合,目前包含三个实用技能:

  1. docx-format-replicator - 提取并复制 Word 文档格式
  2. video-processor - 从 YouTube 等平台下载和处理视频
  3. wechat-article-writer - 自动化微信公众号文章写作流程

GitHub 仓库: iamzhihuix/happy-claude-skills 作者: iamzhihuix 许可证: MIT

在 Claude Code 中添加该仓库为插件市场:

Terminal window
/plugin marketplace add iamzhihuix/happy-claude-skills

然后安装所需的技能:

Terminal window
/plugin install docx-format-replicator@happy-claude-skills
/plugin install video-processor@happy-claude-skills
/plugin install wechat-article-writer@happy-claude-skills

克隆仓库后直接使用:

Terminal window
git clone https://github.com/iamzhihuix/happy-claude-skills.git
claude --plugin-dir /path/to/happy-claude-skills

从现有 Word 文档中提取格式,并生成具有相同格式的新文档。

  • 企业文档模板复制 - 在多个文档间保持一致的品牌风格
  • 批量文档生成 - 创建多个格式相同的文档
  • 技术规范文档系列 - 从模板生成规范文档
  • 标准化文档 - 开发任务表、报告等
Terminal window
pip install python-docx

安装后,只需在 Claude Code 中描述你的需求:

“我有一个文档模板,需要生成 5 个具有相同格式的新文档”

Claude 会自动识别并调用相应的技能。

从 YouTube 和其他平台下载并处理视频。支持视频下载、音频提取、格式转换和 Whisper 转录。

  • 从 YouTube 和其他平台下载视频
  • 从视频文件中提取音频
  • 将视频转换为 MP4/WebM 格式
  • 使用 Whisper 将音频/视频转录为文本
Terminal window
# Python 包
pip install yt-dlp openai-whisper
# FFmpeg (macOS)
brew install ffmpeg

“下载这个 YouTube 视频并将其转录为文本”

“从这个视频文件中提取音频”

自动化微信公众号文章写作流程,包含 4 个步骤:研究、写作、标题生成和格式优化。

  • 撰写公众号文章
  • 生成爆款标题
  • 自媒体内容创作
  • 文章格式优化

该技能遵循 4 步流程:

  1. 研究 - 收集主题相关信息
  2. 写作 - 生成文章内容
  3. 标题生成 - 创建吸引人的标题
  4. 格式化 - 为微信编辑器优化格式

“帮我写一篇关于 AI 编程技巧的公众号文章”

happy-claude-skills/
├── .claude-plugin/
│ └── marketplace.json # 市场配置
├── skills/
│ ├── docx-format-replicator/
│ │ ├── SKILL.md # 技能定义
│ │ ├── scripts/ # Python 脚本
│ │ ├── assets/ # 示例文件
│ │ └── references/ # 参考文档
│ ├── video-processor/
│ │ ├── SKILL.md # 技能定义
│ │ └── scripts/ # Python 脚本
│ └── wechat-article-writer/
│ └── SKILL.md # 技能定义
├── README.md
└── LICENSE

video-processor 技能改编自 dislerclaude-code-hooks-multi-agent-observability 项目。

Claude Code 的插件系统使社区贡献能够扩展工具的核心功能。happy-claude-skills 集合展示了实际应用价值:

  1. 文档自动化 - 减少手动格式化工作
  2. 媒体处理 - 将视频处理能力带入编码工作流程
  3. 内容创作 - 简化面向中文受众的文章写作流程

随着 Claude Code 生态系统的不断发展,我们可以期待更多社区插件的出现,进一步增强工具的多功能性。

该项目欢迎社区贡献。如果你有新技能的想法或改进建议:

  1. Fork 该仓库
  2. 按照现有结构创建你的技能
  3. 提交 Pull Request

微信公众号文章写作助手:用 Claude Code 一键生成爆款内容

微信公众号文章写作助手:用 Claude Code 一键生成爆款内容

Section titled “微信公众号文章写作助手:用 Claude Code 一键生成爆款内容”

创作一篇高质量的公众号文章需要经历选题研究、内容撰写、标题优化、排版美化等多个环节,通常耗时数小时。wechat-article-writer 是一款 Claude Code 技能插件,能将整个流程自动化,让创作者在几分钟内完成专业级文章。

微信公众号文章写作助手

wechat-article-writerhappy-claude-skills 项目中的核心技能之一,专门为公众号内容创作打造。它能自动化处理:

  • 智能研究 - 多源并行搜索最新资讯
  • AI写作 - 故事化内容生成,情感共鸣
  • 爆款标题 - 基于数据分析的标题生成公式
  • 移动优化 - 针对手机阅读的专业排版

GitHub 仓库: iamzhihuix/happy-claude-skills 开源协议: MIT

技能会自动并行搜索多个信息源:

  • 官方文档和发布说明
  • 社交媒体讨论(X/Twitter、Reddit)
  • 技术论坛和社区
  • 最新月度/季度内容

利用 Claude Code 内置的 WebSearch 工具,可启动多个并行任务加速信息收集。

内容生成遵循公众号最佳实践:

  • 篇幅: 1000-1500 字(移动端最佳阅读长度)
  • 开头: 故事化引入,情感钩子(兴奋/焦虑/好奇)
  • 结构: 效果展示 → 问题分析 → 步骤教学 → 升华总结
  • 风格: 读取你的 CLAUDE.md 文件,匹配个人写作风格

自动生成 5 个爆款标题,采用验证有效的技巧:

  • 痛点直击: “还在手动XXX?”
  • 数字吸引: “3分钟”、“5个技巧”——具体数字更有说服力
  • 结果导向: “效率暴涨10倍”
  • 情绪调动: “神器”、“秘籍”、“终极”
  • 悬念设置: 引发强烈好奇心

移动端优先的布局建议:

  • 短段落结构(每段3-5行)
  • 关键数据独立成段加粗显示
  • 策略性配图位置(封面、步骤图、总结图)
  • 代码块前后留白,语法高亮
  • 金句提炼——增强记忆点的独立段落
Terminal window
# 添加 happy-claude-skills 插件市场
/plugin marketplace add iamzhihuix/happy-claude-skills
# 安装 wechat-article-writer 技能
/plugin install wechat-article-writer@happy-claude-skills

安装完成后,直接描述你的文章需求:

帮我写一篇关于 AI 编程技巧的公众号文章

Claude Code 会自动:

  1. 识别请求匹配 wechat-article-writer 技能
  2. 搜索最新的 AI 编程趋势和技巧
  3. 读取你的 CLAUDE.md 匹配写作风格
  4. 生成约1200字的教程文章
  5. 提供 5 个爆款标题选项
  6. 建议排版和配图方案

输入:

写一篇关于 Claude Code 新功能的公众号文章

输出:

  1. 研究摘要: 来自官方文档、Twitter 讨论和社区论坛的最新 Claude Code 更新
  2. 文章正文: 1200字教程,故事化开头
  3. 5个爆款标题:
    • 还在手动复制代码?这个 Claude 功能将改变你的生活
    • 3分钟掌握 Claude Code 隐藏神技
    • 效率暴涨10倍:高手不愿说的 Claude Code 工作流
    • 神器!Claude Code 居然可以自动做这个
    • 终极指南:鲜为人知的 Claude Code 必杀技
  4. 布局指南: 配图位置建议、排版优化方案

技能跨多个平台并行搜索,确保内容研究深入、资讯及时。

通过读取你的 CLAUDE.md 文件,技能会适应你既定的声音和语调,保持内容一致性。

标题生成采用来自成功公众号文章的数据支持公式,最大化点击率。

布局建议专门针对微信移动端界面设计,覆盖大多数读者的阅读场景。

  • 科技博主: 热点话题快速响应
  • 营销团队: 品牌声音保持一致性
  • 个人创作者: 规模化内容生产而不牺牲质量
  • 资讯聚合: 高效策展和整合信息
happy-claude-skills/
└── skills/
└── wechat-article-writer/
├── SKILL.md # 主技能定义
├── skill.config.json # 配置文件
└── README.md # 文档说明

happy-claude-skills 项目是开源的,欢迎贡献:

  1. Fork 仓库
  2. 创建特性分支
  3. 提交 Pull Request

仓库地址: https://github.com/iamzhihuix/happy-claude-skills

特性wechat-article-writer手动写作其他 AI 工具
研究自动化✓ 多源并行✗ 手动搜索✗ 有限
微信优化✓ 原生支持✓ 手动优化✗ 通用模板
风格适应✓ CLAUDE.mdN/A✗ 固定风格
标题公式✓ 5个爆款选项✗ 手动思考✗ 基础生成
集成方式✓ Claude Code 原生N/A✗ 复制粘贴
  • 需要安装 Claude Code 并使用 Claude Skills 功能
  • 针对中文语言优化(公众号专用)
  • 输出质量取决于搜索结果可用性
  • 建议人工审核和编辑以获得最佳效果

正在考虑的潜在改进:

  • 直接发布到微信 API
  • 中文以外的多语言支持
  • AI 图片生成集成
  • 数据分析追踪集成

wechat-article-writer 技能将公众号内容创作从数小时的工作流程转变为高效的自动化流程。通过整合研究、写作、标题优化和排版,帮助创作者在扩大生产规模的同时保持一致性和高质量。

对于管理公众号或创作中文内容的 Claude Code 用户来说,这款技能是工具箱中的宝贵 addition。

Claude Code Transcripts:将 AI 编程会话发布为 HTML 文档

Claude Code Transcripts:将 AI 编程会话发布为 HTML 文档

Section titled “Claude Code Transcripts:将 AI 编程会话发布为 HTML 文档”

在使用 Claude Code 进行软件开发时,每个会话都蕴含着宝贵的洞察——调试方法、架构决策和问题解决技巧。但这些对话被锁定在 ~/.claude/projects 目录下的 JSON 文件中,难以分享。

Simon Willison 发布了 claude-code-transcripts,这是一个 Python CLI 工具,可将这些会话文件转换为美观、可浏览的 HTML 文档,便于与他人分享。

Claude Code Transcripts

claude-code-transcripts 是一个命令行工具,可将 Claude Code 会话数据(存储为 JSON 或 JSONL 文件)转换为分页的、移动端友好的 HTML 文档。它提供:

  • 比原始 Claude Code 界面更好的可读性
  • 可分享的输出,支持任何静态托管或 GitHub Gist
  • 多种输入源:本地会话、通过 API 导入的 Web 会话,或直接使用 JSON 文件
  • 整洁、有组织的布局,长会话自动分页

GitHub 仓库: simonw/claude-code-transcripts 作者: Simon Willison 许可证: Apache 2.0 PyPI: claude-code-transcripts

该工具可以使用 uv(推荐)安装,或直接运行而无需安装:

Terminal window
# 使用 uv 安装
uv tool install claude-code-transcripts
# 或直接运行而无需安装
uvx claude-code-transcripts --help

该工具提供四个命令用于不同场景:

转换存储在 ~/.claude/projects 中的本地会话:

Terminal window
# 最近会话的交互式选择器
claude-code-transcripts
# 显式使用 local 命令
claude-code-transcripts local
# 在选择器中显示更多会话
claude-code-transcripts local --limit 20

直接从 Claude Web API 获取会话:

Terminal window
# 交互式会话选择器
claude-code-transcripts web
# 通过会话 ID 导入特定会话
claude-code-transcripts web SESSION_ID

在 macOS 上,凭据会自动从钥匙串中检索。在其他平台上,使用 --token--org-uuid

直接转换 JSON 或 JSONL 会话文件:

Terminal window
claude-code-transcripts json session.json -o output-directory/
claude-code-transcripts json session.jsonl --open

将所有本地会话转换为可浏览的 HTML 归档:

Terminal window
claude-code-transcripts all

这将创建一个目录结构,包含:

  • 列出所有项目的主索引
  • 列出会话的每个项目页面
  • 单个会话文档

所有命令都支持这些有用的选项:

选项描述
-o, --output DIR输出目录(默认:临时目录 + 打开浏览器)
-a, --output-auto基于会话 ID 自动命名子目录
--repo OWNER/NAME用于提交链接的 GitHub 仓库
--open在默认浏览器中打开生成的 HTML
--gist上传到 GitHub Gist 并返回预览 URL
--json在输出中包含原始会话文件

最强大的功能之一是 --gist 选项:

Terminal window
# 将文档发布为 Gist
claude-code-transcripts --gist
# 从 Web 导入并发布
claude-code-transcripts web SESSION_ID --gist
# 转换特定文件并发布
claude-code-transcripts json session.json --gist

这需要安装并验证 GitHub CLI。输出包括:

Gist: https://gist.github.com/username/abc123def456
Preview: https://gistpreview.github.io/?abc123def456/index.html
Files: /var/folders/.../session-id

该工具生成:

  • index.html - 包含提示和提交的时间线页面
  • page-001.htmlpage-002.html 等 - 分页的文档页面

查看 Simon 创建的示例文档

  1. 文档编写 - 将复杂的调试会话转换为参考文档
  2. 知识分享 - 与团队分享架构决策
  3. 教程制作 - 从真实编程会话创建分步指南
  4. 归档存储 - 构建可搜索的开发工作归档
  5. 博客创作 - 将有趣的会话转换为博客文章
  • 输入源: 本地 ~/.claude/projects、Claude Web API 或 JSON/JSONL 文件
  • 输出格式: 带 CSS 的静态 HTML,无需构建步骤
  • 依赖项: Python 3.8+,最小依赖
  • 平台支持: macOS、Linux、Windows
功能claude-code-transcriptsclaude-notes
GitHub Gist 集成✅ 内置支持❌ 无
Web API 支持✅ 是❌ 仅本地
归档所有会话✅ 是❌ 仅单文件
移动端友好✅ 是✅ 是
分页功能✅ 是✅ 是

两个工具用途相似,但 claude-code-transcripts 在分享和发布方面提供了更高级的功能。

claude-code-transcripts 填补了 Claude Code 生态系统中的一个重要空白,使会话可以在 Claude Code 界面之外进行分享和阅读。无论您是在记录工作、与同事分享,还是构建知识库,这个工具都能将短暂的 AI 对话转化为永久、有价值的资源。

相关链接:

Claude Code Board: 在看板 WebUI 上使用 Claude Code

Claude Code Board 是一个专为 Claude Code CLI 设计的基于 Web 的看板风格管理界面。如果你是 Claude Code 的重度用户,你可能会发现自己经常需要同时管理多个终端窗口来处理不同的任务。Claude Code Board 通过提供一个统一的、可视化的界面来管理这些会话,从而解决了这个问题。

它的目标是通过允许并发管理多个 AI 编码会话并实时跟踪状态(空闲、处理中、完成、错误),来提升开发者的体验。

同时运行多个 Claude Code 实例。看板允许你一目了然地查看每个会话的状态——无论是空闲、正在处理还是已完成。

  • Agent 集成:直接从你的 ~/.claude/agents/ 目录加载自定义 Claude Agent。
  • 工作流阶段:利用预配置的阶段(如代码审查、Bug 修复和功能开发)来构建你的工作。
  • 智能提示:自动注入 Agent 指令和自定义模板,简化你与 AI 的交互。

将你的会话分组在“工作项”下,按项目或主题进行标记,并自动管理工作区路径。这使得你的工作在概念上井井有条,而不仅仅是按终端 ID 区分。

  • WebSocket 驱动的聊天:实时更新和交互。
  • 通知:Window Toast 通知会在任务完成时提醒你。
  • 消息过滤:过滤掉“思考”块或工具使用日志,只关注对话和结果。
  • 会话恢复:恢复之前的对话并保留完整的上下文。
  • 操作系统:Windows 10/11
  • 运行时:Node.js (v18+)
  • 核心工具:全局安装的 Claude Code CLI (npm install -g @anthropic-ai/claude-code)
  1. 克隆仓库

    Terminal window
    git clone https://github.com/cablate/Claude-Code-Board.git
    cd Claude-Code-Board
  2. 安装依赖 你需要为根目录、后端和前端分别安装依赖。

    Terminal window
    npm install
    cd backend && npm install
    cd ../frontend && npm install
  3. 启动应用

    • 选项 1 (Windows):直接运行 start.bat
    • 选项 2 (手动):在不同的终端中分别运行 npm run dev:backendnpm run dev:frontend
  4. 访问:打开浏览器并访问 http://localhost:5173

想象一下,你正在开发一个功能,但同时也需要修复一个紧急 Bug 并审查通过一个 PR。与其打开三个终端并迷失在上下文中,不如在 Claude Code Board 上创建三张卡片:“功能 X”、“Bug Y”和“PR 审查 Z”。你可以轻松地在它们之间切换并查看进度。

你可以通过在 agents 目录中创建 .md 文件来配置专门的 Agent(例如,“架构师”Agent 或“调试器”Agent)。在开始会话时,你可以选择最适合该任务的特定 Agent。

  • 安全性:此工具仅设计用于 本地/个人使用。它没有企业级的安全性(加密/认证),不应部署到公共网络。
  • 平台:目前针对 Windows 进行了优化。

在 Claude Code 中使用 GLM Coding Plan:智谱 AI 集成指南

通过官方 GLM Coding Plan 集成,在 Claude Code 中使用智谱 AI 的 GLM 大模型。从安装配置到日常使用的完整指南。


Claude Code 是一款智能编码工具,可在终端中运行,通过自然语言命令帮助开发者快速完成代码生成、调试、重构等任务。但如果你想使用中国强大的 GLM 模型呢?

GLM Coding Plan 是智谱 AI 提供的官方解决方案,可直接将 GLM 模型集成到 Claude Code 中。通过此集成,你可以在保持熟悉的 Claude Code 工作流的同时,使用 GLM-4.7 和 GLM-4.5-Air 等强大的模型。

本指南将涵盖你需要了解的一切:从安装到高级配置、故障排查和最佳实践。


在开始之前,请确保你拥有:

  • 已安装 Node.js 18 或更新版本
  • Git for Windows(仅 Windows 用户)
  • 智谱 AI 账户和 API 访问权限

打开终端并运行:

Terminal window
npm install -g @anthropic-ai/claude-code

验证安装:

Terminal window
claude --version
# 输出:2.0.14 (Claude Code) 或更高版本

提示: 如果你不熟悉 Node.js 且安装了 Cursor,可以在 Cursor 中输入 Help me install Claude Code,它会引导你完成安装过程。

智谱 AI 提供两种集成方式:

方式一:环境变量(快速开始)

Section titled “方式一:环境变量(快速开始)”

在终端中设置以下环境变量:

Terminal window
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4/"
export ANTHROPIC_AUTH_TOKEN="your_zhipu_api_key"
export ANTHROPIC_MODEL="glm-4.7"

或者将它们添加到你的 shell 配置文件(~/.zshrc~/.bashrc):

Terminal window
cat >> ~/.zshrc <<'EOF'
# GLM Coding Plan 配置
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4/"
export ANTHROPIC_AUTH_TOKEN="your_zhipu_api_key"
export ANTHROPIC_MODEL="glm-4.7"
EOF
source ~/.zshrc

编辑 ~/.claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/paas/v4/",
"ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
}
}

导航到你的项目目录并运行:

Terminal window
claude

当提示”Do you want to use this API key?”时,选择 Yes。然后信任 Claude Code 访问你的项目文件。


模型使用场景速度质量
GLM-4.7复杂推理、架构设计中等最高
GLM-4.5-Air快速任务、简单查询良好
GLM-4.5均衡性能中等
  • 使用 GLM-4.7 用于:功能实现、代码重构、架构决策
  • 使用 GLM-4.5-Air 用于:快速修复、文档编写、简单查询
  • 使用 GLM-4.5 用于:通用开发任务

Terminal window
# 导航到你的项目
cd my-project
# 使用 GLM 启动 Claude Code
claude
# 在 Claude Code 中:
> 添加基于 JWT 的用户认证
> 为认证模块编写单元测试
> 审查并优化数据库查询
Terminal window
claude
# 在 Claude Code 中:
> 重构 User 类以遵循 SOLID 原则
> 将验证逻辑提取到独立服务中
> 为整个模块添加 TypeScript 类型
Terminal window
claude
# 在 Claude Code 中:
> 调查为什么 API 返回 500 错误
> 添加全面的错误日志
> 为此 bug 编写测试用例

你可以通过修改环境变量来切换模型,而无需重启 Claude Code:

Terminal window
# 切换到更快的模型用于简单任务
export ANTHROPIC_MODEL="glm-4.5-air"
# 切换到更强大的模型用于复杂任务
export ANTHROPIC_MODEL="glm-4.7"

然后在 Claude Code 中使用 /status 验证:

当前模型:glm-4.7
Base URL:https://open.bigmodel.cn/api/paas/v4/

GLM Coding Plan 支持额外的 MCP 服务器以增强功能:

启用图像理解能力:

{
"mcpServers": {
"vision": {
"command": "node",
"args": ["path/to/vision-mcp-server.js"]
}
}
}

添加网络搜索能力:

{
"mcpServers": {
"search": {
"command": "node",
"args": ["path/to/search-mcp-server.js"]
}
}
}

启用网页阅读:

{
"mcpServers": {
"web-reader": {
"command": "node",
"args": ["path/to/web-reader-mcp.js"]
}
}
}

症状: 你修改了 ~/.claude/settings.json 但更改没有生效。

解决方案:

  1. 完全重启 Claude Code - 关闭所有终端窗口并重新开始:

    Terminal window
    claude
  2. 验证 JSON 语法 - 使用 JSON 验证器检查语法错误:

    Terminal window
    cat ~/.claude/settings.json | python -m json.tool
  3. 重置配置 - 删除文件并重新配置:

    Terminal window
    rm ~/.claude/settings.json
    claude # 将提示重新配置

症状: “Unauthorized” 或 “Invalid API key” 错误。

解决方案:

  1. 智谱 AI 控制台验证你的 API 密钥
  2. 检查环境变量中是否有额外的空格或引号
  3. 确保 ANTHROPIC_AUTH_TOKEN 设置正确

症状: GLM 模型响应时间过长。

解决方案:

  1. 切换到 glm-4.5-air 以获得更快的响应
  2. 如需要,增加超时时间:
    Terminal window
    export API_TIMEOUT_MS=600000 # 10 分钟
  3. 检查到智谱 API 的网络连接

任务类型推荐模型
快速修复GLM-4.5-Air
功能实现GLM-4.7
代码审查GLM-4.7
文档编写GLM-4.5-Air
调试GLM-4.7
简单查询GLM-4.5-Air

始终从项目根目录运行 Claude Code。这有助于 Claude 理解:

  • 项目结构和依赖关系
  • 构建配置
  • 测试设置
  • 编码约定

将复杂任务分解为更小的步骤:

1. "创建用户数据表结构"
2. "为用户添加 CRUD 操作"
3. "为用户操作编写测试"
4. "添加输入验证"
5. "编写 API 接口文档"

Claude Code 在你提供上下文时效果最好:

  • 完整分享错误消息
  • 显示相关代码片段
  • 解释业务需求
  • 描述预期行为

智谱 AI 在 Claude Code 2.0.14+ 版本上验证 GLM Coding Plan。检查和升级:

Terminal window
# 检查当前版本
claude --version
# 升级到最新版本
claude update

始终保持 Claude Code 更新,以获得与 GLM 模型的最佳兼容性。


特性GLM Coding Plan直接使用 Anthropic其他中国大模型
配置复杂度各异
中文理解优秀良好优秀
代码质量很高中-高
成本有竞争力较高各异
本地数据各异
官方支持N/A有限

Q: 我可以同时使用 GLM Coding Plan 和其他 Claude Code 配置吗?

Section titled “Q: 我可以同时使用 GLM Coding Plan 和其他 Claude Code 配置吗?”

A: 可以,你可以通过更改环境变量或在设置文件中创建多个配置文件来在不同的 API 提供商之间切换。

Q: 我的代码数据会被发送到智谱 AI 服务器吗?

Section titled “Q: 我的代码数据会被发送到智谱 AI 服务器吗?”

A: 是的,类似于 Claude Code 将数据发送给 Anthropic。请查看智谱 AI 的数据隐私政策以了解数据处理和保留的详细信息。

Q: 我可以在 Cursor 或其他 IDE 中使用 GLM Coding Plan 吗?

Section titled “Q: 我可以在 Cursor 或其他 IDE 中使用 GLM Coding Plan 吗?”

A: GLM Coding Plan 主要为基于终端的 Claude Code 设计。但是,如果 Cursor 支持自定义端点,你可以配置类似的 API 设置。

Q: GLM-4.7 和 GLM-4.5-Air 有什么区别?

Section titled “Q: GLM-4.7 和 GLM-4.5-Air 有什么区别?”

A: GLM-4.7 是智谱最强大的模型,适用于复杂推理任务,而 GLM-4.5-Air 针对速度和成本效益进行了优化,适用于更简单的任务。

Q: 如何检查当前激活的是哪个模型?

Section titled “Q: 如何检查当前激活的是哪个模型?”

A: 在 Claude Code 中运行 /status 命令以查看当前模型和配置。



GLM Coding Plan 将智谱 AI 的 GLM 模型强大功能带入 Claude Code,为偏好中国托管模型或需要更好中文语言理解的开发者提供了引人注目的选择。通过正确的配置和模型选择,你可以在保持数据本地化的同时获得生产力提升。

集成简单明了,文档全面,智谱 AI 的官方支持确保了流畅的体验。无论你是构建新功能还是调试现有代码,GLM Coding Plan 都能满足你的需求。

使用 GLM,编码愉快!

Superpowers:将 Claude Code 变成规范化开发工作流引擎

如果 Claude Code 不仅仅是写代码,而是能够强制执行工程纪律,会是什么样?这正是 obra/superpowers 所实现的——一套基于可组合「技能」的完整软件开发工作流系统,这些技能会自动激活来指导你的开发过程。

凭借 GitHub 上超过 11,800 颗星960 个 fork,Superpowers 已成为那些希望 AI 编码助手遵循系统化工程实践(而非随意生成代码)的开发者的首选框架。

Claude Code Superpowers 工作流


核心理念:工程纪律优于快速修复

Section titled “核心理念:工程纪律优于快速修复”

Superpowers 强制执行四个基本原则:

原则描述
测试驱动开发(TDD)先写测试,永远如此。在测试之前写的代码可能被删除
系统化优于临时方案遵循定义好的流程而非猜测
降低复杂性简单性是首要目标(YAGNI、DRY)
证据优于声明在宣布成功之前验证修复是否有效

这不是添加更多功能——而是从根本上改变 AI 代理处理软件开发的方式。


Superpowers 工作原理:五阶段工作流

Section titled “Superpowers 工作原理:五阶段工作流”

启用 Superpowers 后开始项目时,Claude Code 会遵循结构化的工作流:

第一阶段:设计优先(头脑风暴)

Section titled “第一阶段:设计优先(头脑风暴)”

代理不会立即开始写代码,而是「退后一步,询问你真正想做什么」。通过苏格拉底式对话

  • 通过提问探索你的需求
  • 考虑替代方案和边缘情况
  • 以易于理解的块呈现设计供审批
  • 保存规格说明文档

设计获批后,它会创建一个「足够清晰,让热情的初级工程师也能遵循」的实施计划:

  • 将工作分解为 2-5 分钟的任务
  • 指定确切的文件路径和代码位置
  • 包含每个任务的验证步骤
  • 强调 TDD、YAGNI 和 DRY 原则

第三阶段:隔离开发(Git Worktrees)

Section titled “第三阶段:隔离开发(Git Worktrees)”

系统创建隔离的工作空间:

Terminal window
# Superpowers 自动执行:
# 1. 通过 git worktree 创建新分支
# 2. 运行项目设置
# 3. 验证测试基准(更改前所有测试必须通过)

这里是魔法发生的地方——带质量门的自主执行

  • 新鲜的子代理处理各个任务
  • 两阶段审查:规格符合性,然后是代码质量
  • 文档指出:“Claude 自主工作几个小时是很常见的”
  • 验证所有测试通过
  • 提供合并或 PR 选项
  • 清理 worktrees
  • 呈现包含代码审查提示的摘要

Terminal window
# 1. 注册市场
/plugin marketplace add obra/superpowers-marketplace
# 2. 安装 superpowers
/plugin install superpowers@superpowers-marketplace
# 3. 验证安装
/help
# 你应该看到:/superpowers:brainstorm, /superpowers:write-plan, /superpowers:execute-plan

告诉 Codex 获取并遵循:

https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md

告诉 OpenCode 获取并遵循:

https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.opencode/INSTALL.md
Terminal window
/plugin update superpowers

Superpowers 包含按类别组织的综合技能集:

技能用途
test-driven-development强制执行 RED-GREEN-REFACTOR 循环,附带反模式参考
技能用途
systematic-debugging4 阶段根因分析过程
verification-before-completion确保修复在标记完成前得到实际验证
技能用途
brainstorming交互式苏格拉底式设计优化
writing-plans创建包含确切文件路径的详细实施计划
executing-plans带人工检查点的批量执行
dispatching-parallel-agents管理并发子代理工作流
requesting-code-review预审查清单系统
receiving-code-review结构化反馈响应工作流
using-git-worktrees并行开发分支管理
finishing-a-development-branch合并/PR 决策工作流,包含清理
subagent-driven-development带两阶段审查的快速迭代
技能用途
writing-skills创建新技能的指南,包含测试方法论
using-superpowers技能系统介绍

用户:我想添加 OAuth2 用户认证
Claude(启用 Superpowers):
1. [头脑风暴激活] 让我理解你的需求...
- 你需要哪些 OAuth 提供商?
- 使用 Session 还是 JWT 令牌?
- 需要哪些权限范围?
2. [讨论后] 这是设计规格。[保存到文件]
3. [writing-plans 激活] 这是实施计划:
- 任务 1:设置 OAuth 配置(3 分钟)
- 任务 2:编写认证回调测试(5 分钟)
- 任务 3:实现回调处理程序(5 分钟)
...
4. [subagent-driven-development] 带审查的自主执行任务...
5. [finishing-a-development-branch] 所有测试通过。合并还是创建 PR?
用户:用户被随机登出
Claude(启用 Superpowers):
[systematic-debugging 激活]
阶段 1:根因追踪
- 分析会话管理代码...
- 检查令牌过期逻辑...
- 发现:令牌刷新竞态条件
阶段 2:纵深防御
- 识别了多个潜在修复方案
- 建议:添加令牌刷新互斥锁
阶段 3:TDD 实施
[test-driven-development 激活]
- 编写竞态条件的失败测试
- 实施修复
- 验证测试通过
阶段 4:验证
[verification-before-completion 激活]
- 运行完整测试套件
- 模拟并发请求
- 确认:问题已解决

技能根据上下文自动触发——无需手动命令。代理在任何任务之前检查相关技能,使这些成为强制工作流,而非建议

任务之间进行代码审查,在关键问题上阻止进度。这确保问题被及早发现而非累积。

系统实际上会删除在测试之前编写的代码。这强制执行了即使经验丰富的开发者有时也会跳过的纪律。

实施计划包括:

  • 确切的文件路径
  • 完整的代码片段
  • 验证步骤
  • 时间估计(每任务 2-5 分钟)

功能Superpowers原生 Claude CodeCursor + Rules
自动工作流激活部分
TDD 强制执行是(删除预测试代码)
子代理编排有限
Git worktree 管理手动
任务间质量门
自主执行最长 2 小时按请求按请求

  1. 信任流程 - 让 Superpowers 在编码前引导你完成设计
  2. 提供上下文 - 头脑风暴期间分享越多,实施越好
  3. 审查检查点 - 使用人工检查点验证方向
  4. 定期更新 - 运行 /plugin update superpowers 获取最新技能
  1. 不要跳过头脑风暴 - 急于编码会违背目的
  2. 不要忽视测试失败 - 在继续之前修复
  3. 不要绕过质量门 - 它们存在是有原因的
  4. 不要忘记验证 - 确保修复确实有效

问:技能没有自动激活? 答:运行 /help 验证安装。如果技能没有出现,尝试重新安装。

问:可以创建自定义技能吗? 答:可以!使用 writing-skills 技能作为指南。技能存放在仓库中,可直接通过 PR 贡献。

问:如何跳过工作流步骤? 答:你可以覆盖,但不推荐。系统设计为完整工作流。

问:适用于非 TypeScript 项目吗? 答:是的,技能与语言无关。这些原则适用于任何代码库。


  1. Fork 仓库
  2. 为你的技能创建分支
  3. 遵循 writing-skills 指南
  4. 提交 PR

完整指南在 skills/writing-skills/SKILL.md



Superpowers 代表了从「AI 写代码」到「AI 遵循工程纪律」的范式转变。通过使结构化工作流成为强制性而非可选性,它通过自主但系统化的开发过程产生更高质量的代码。

如果你曾对 AI 助手在没有适当测试或设计考虑的情况下生成代码感到沮丧,Superpowers 就是你的解决方案。立即安装,将 Claude Code 转变为你应得的规范化工程伙伴。


准备好提升你的 Claude Code 体验了吗?

Terminal window
/plugin marketplace add obra/superpowers-marketplace
/plugin install superpowers@superpowers-marketplace

未来的你(和你的测试套件)会感谢你的。

🎚️ CodexBar:在 macOS 菜单栏实时监控 Claude Code 和 OpenAI Codex 用量

CodexBar 是由 Peter Steinberger (@steipete) 开发的一款轻量级 macOS 15+ 菜单栏应用,让你的 AI 编程助手使用限额始终可见。同时监控 OpenAI Codex 和 Claude Code 的限制——包括 5 小时会话窗口和每周配额——无需登录任何仪表板。

  • 双服务商支持:同时追踪 Codex(5 小时/每周 + 积分)和 Claude Code(会话/每周 + Sonnet 专属限制)
  • 零登录要求:直接读取本地 CLI 输出——无需密码,无需浏览器会话
  • 实时可视化:从菜单栏查看剩余 Token、重置计时器和账户信息

如果你正在积极使用 Claude Code 或 OpenAI Codex 进行开发,很可能遇到过意外触发速率限制的情况。以下是 CodexBar 必不可少的原因:

  1. 避免工作流中断 在开始大型编码会话之前了解剩余配额。不再在复杂重构过程中遭遇”速率限制”的突然惊吓。

  2. 追踪多重时间窗口 两个服务都使用重叠的 5 小时和每周窗口。CodexBar 可视化显示两者,让你准确了解限制何时重置。

  3. 监控 Sonnet 专属限制(Claude) Claude Code 的 Sonnet 模型有自己的每周上限。CodexBar 单独显示,让你能策略性地选择何时使用哪个模型。

  4. 积分可见性(Codex) 在速率限制旁查看付费积分余额。了解你是在消耗免费层还是付费用量。


Terminal window
brew install --cask steipete/tap/codexbar

更新命令:

Terminal window
brew upgrade --cask steipete/tap/codexbar

GitHub Releases 下载即用型 zip 文件。


  • macOS 15+(Sequoia 或更高版本)
  • Codex 用户:需安装 Codex CLI ≥ 0.55.0 并登录
  • Claude Code 用户:需通过 claude --version 安装 Claude CLI,并通过 claude login 登录

CodexBar 首次启动时自动检测已安装的 CLI:

  • Codex 默认启用
  • 检测到 claude 二进制文件时自动开启 Claude

CodexBar 在本地 PTY(伪终端)中运行 claude /usageclaude /status 来提取:

  • 会话使用百分比
  • 每周使用百分比
  • Sonnet 专属每周限制
  • 重置倒计时
  • 账户邮箱、组织和登录方式

隐私说明:一切都在本地完成。除 Claude CLI 本身的网络调用外,无任何额外网络请求。

CodexBar 优先使用 Codex app-server RPC 获取速率限制和积分。如果 RPC 不可用,则回退到 PTY 抓取 codex /status

可选的”通过网页访问 OpenAI”设置可额外显示:

  • 代码审查剩余次数
  • 用量分解
  • 积分使用历史

这会重用已登录的 chatgpt.com 会话(通过 Safari/Chrome cookie 导入)——不存储密码。


菜单栏图标使用巧妙的双条系统:

条形显示内容
顶部条5 小时窗口配额(如果每周配额用尽则显示积分条)
底部条每周窗口配额(细线)

图标变体:

  • Codex 模式:标志性的”眼睑眨动”设计
  • Claude 模式:显示 Claude 的缺口/腿部变体
  • 错误/未知状态:图标变暗(无混乱文字)

菜单 → “刷新频率…” 提供以下预设:

  • 仅手动
  • 1 分钟
  • 2 分钟
  • 5 分钟(默认)
  • 15 分钟

手动模式仍支持从菜单点击”立即刷新”。


CodexBar 以隐私为设计核心:

  • 不扫描磁盘 - 参见 issue #12 的审计说明
  • 服务商数据隔离 - Claude 信息永不与 Codex 信息混合
  • 仅读取本地 CLI - 账户详情直接来自 CLI 输出
  • 不存储密码 - 可选的网页访问使用现有浏览器 cookie

CodexBar 是 steipete 开发者生产力工具套件的一部分:

工具描述
Trimmy扁平化多行 shell 代码片段,一键粘贴执行
MCPorterMCP 服务器的 TypeScript 工具包 + CLI

灵感来源:ccusage - Claude Code 用量成本追踪 CLI 工具(我们之前介绍过)。


场景行为
还没有 Codex 用量显示”No usage yet” - 运行一个提示后刷新
未安装 Claude CLI显示”Claude CLI is not installed”
未登录显示相应的登录错误
重置时间解析失败当时区信息缺失时显示原始文本

CodexBar 解决了 AI 编程助手重度用户的真实痛点:

  • ✅ 一眼查看 Codex 和 Claude Code 限制
  • ✅ 同时监控 5 小时会话和每周窗口
  • ✅ 追踪 Sonnet 专属限制和付费积分
  • ✅ 零登录要求 - 读取本地 CLI 数据
  • ✅ 隐私优先设计,不扫描磁盘

通过 brew install --cask steipete/tap/codexbar 安装,从此不再被速率限制打个措手不及。


📌 想了解更多 Claude Code 技巧、用量优化策略和 AI 开发者工具?关注我们的频道,获取最新的 AI 辅助开发工作流指南!

Boris Cherny:Claude Code 创建者从 Meta 到 Anthropic 的职业成长之路

每一个革命性产品的背后,都有一个关于个人成长、战略思考和持续求知的故事。Boris Cherny,Anthropic 的 Claude Code 创建者,就是这个道理的最佳诠释。他的职业历程——从创业到风险投资,在 Meta(Facebook/Instagram)工作十年,再到领导开发最具影响力的 AI 开发工具之一——展示了每个工程师都可以应用的核心原则。

本文提炼了 Boris 的职业洞见,揭示他如何从一名中级工程师成长为 Meta 的首席工程师,最终创造出 Claude Code——一个如今能够自己编写 80-90% 代码的工具。

Boris Cherny Career Growth


Boris 在 18 岁时创立了他的第一家创业公司,曾在对冲基金工作,值得注意的是他没有计算机科学学位——他学的是经济学,后来辍学去追求创业。他的轨迹证明,编程是一项在工作中学习的实用技能,而非在课堂上习得。

Meta 职业里程碑(2012-2022):

  • IC4(中级):以”低于应有水平”入职,负责 Messenger-Groups 集成项目
  • IC5-IC6:领导 Groups 网页端迁移;创建了 Undux 状态管理库
  • IC7(高级主任工程师):推动 Public Groups 功能,涉及复杂的数据模型迁移
  • IC8(首席工程师):为数百名工程师规划工作范围;领导 Instagram 从 Python 迁移到 Hack 语言

在快速演进的 AI 领域,不要基于当前模型的能力来构建产品——要为未来的模型设计。

“不要为今天的模型构建产品,而要为六个月后的模型构建。” — Ben Mann,Boris 在 Anthropic 的上级

这种前瞻性思维解释了为什么 Claude Code 最初感觉不太理想,但在 Claude 4 系列发布后变得具有变革性。早期产品可能体验一般,但当新模型发布时,你就能实现质的飞跃。

最成功的产品不是发明新行为——而是满足已存在但被隐藏的需求。

Boris 在 Facebook 观察到,用户有 40% 的时间在”滥用” Groups 进行商业交易。这一观察催生了 Facebook Marketplace。同样,Dating 功能也是从观察人们已经如何使用平台建立联系中诞生的。

教训:观察用户正在用你现有功能拼凑出什么——那才是产品市场契合点的藏身之处。

3. 副业项目是你最大的职业杠杆

Section titled “3. 副业项目是你最大的职业杠杆”

通过解决重复出现的痛点并将解决方案推广为公司级工具,Boris 快速积累了跨团队的影响力。

他的”20%时间”项目包括:

  • Undux:一个 React 状态管理库
  • TypeScript 书籍与聚会:在开发者社区中的影响力建设
  • Lint 规则自动化:将重复的代码审查评论转化为自动化检查
  • 大数据集测试框架:惠及数千名工程师的基础设施

“更好的工程是工程师拓展人脉和获得影响力的最简单方式。“

高影响力的工程师不只是写代码——他们发展产品感觉、设计能力和用户研究技能。

在 Meta 和 Anthropic,都没有正式的职称。无论是工程师、产品经理还是设计师,每个人都是”技术成员(Member of Technical Staff)“。这种文化迫使人们通过执行力而非头衔来不断证明自己的价值。

“仅仅因为你是产品工程师,不代表你不能做基础设施。“

在历史包袱沉重、流程惯性强大的复杂组织中,最可靠的决策框架就是回归本质:

  • 用户真正需要什么?
  • 这件事合理吗?

成功的领导者不会被组织惯性牵着走,而是持续追问这些根本问题。


Claude Code 始于 Anthropic 内部实验中的一次意外发现。Boris 的上级推动他超越自动补全的思维局限,鼓励他为未来的模型能力进行设计。

最初,Boris 只在大约 10% 的工作中使用 Claude Code。直到 2024 年 3 月 Sonnet/Opus 4 发布,这个产品才真正可用。

模型改进后,使用率跃升至 50%。如今,Claude Code 的 80-90% 代码都是由 Claude Code 自己编写的。出乎意料的是,使用者从工程师扩展到了数据科学家和销售团队——这是团队从未预料到的使用场景。


招聘哲学:寻找有”副本任务”的人

Section titled “招聘哲学:寻找有”副本任务”的人”

Boris 积极寻找那些在日常工作之外保持好奇心的工程师:

“在招聘工程师时,我确实会寻找这一点……有酷炫的周末项目,比如某个特别热衷于酿造康普茶的人。”

这体现了成长型思维和求知欲——这些特质将优秀工程师与卓越工程师区分开来。


关于冒充者综合症:

“没有人在任何层级真正知道自己在做什么。如果你没有这种感觉,说明你还不够努力。”

关于专注与广度:

“写代码让你脚踏实地。失去它,你会很快失去直觉——那是很危险的状态。”

关于团队协作:

“你永远不想直接告诉别人做什么。理解他们想要什么,然后呈现机会——这总是更有效。”

关于组织变革:

“直接做。有时你需要共识,有时你需要行动。领导者需要不断在两者之间平衡。“


  1. 停止追逐头衔——追求有趣的问题和影响力。晋升自然会随之而来。

  2. 投资副业项目——即使是帮助团队的小自动化,也会随时间复利成巨大的影响力。

  3. 成为通才——在工程技能之外学习产品、设计和用户研究。最有价值的工程师是那些能够身兼多职的人。

  4. 大量运用常识——当迷失在组织复杂性中时,问问”用户真正需要什么?”

  5. 为未来构建——无论是在 AI 还是任何快速发展的领域,为技术将要到达的地方设计,而不是今天的位置。


Boris Cherny 的职业生涯为工程师的成长提供了一堂大师课:从解决自己的问题开始,将解决方案扩展为帮助他人的工具,通过执行力而非头衔赢得信任,并始终为未来设计。

Claude Code 之所以存在,是因为 Boris 花了十年时间构建产品(很多失败了),学习什么是出色的开发者体验,并将自己定位在代码质量与 AI 能力的交汇点。

对于寻求快速职业成长的工程师,他的公式很清晰:保持好奇。做副业项目。系统性思考。为明天设计。


Continuous Claude:Claude Code 终极上下文管理系统

Continuous Claude:Claude Code 终极上下文管理系统

Section titled “Continuous Claude:Claude Code 终极上下文管理系统”

在使用 Claude Code 处理复杂项目时,你可能遇到过令人沮丧的”上下文退化”问题。经过几次压缩周期后,你实际上是在与摘要的摘要的摘要打交道。信号退化为噪音,Claude 开始产生幻觉上下文。

Continuous Claude 通过革命性的方法解决了这个根本问题:清除,而不是压缩

会话开始:完整上下文,高信号
↓ 工作,工作,工作
压缩 1:部分细节丢失
↓ 工作,工作,工作
压缩 2:上下文变得模糊
↓ 工作,工作,工作
压缩 3:现在使用压缩噪音工作
↓ Claude 开始产生幻觉上下文

传统方法试图优化压缩算法。Continuous Claude 采取了根本不同的路径:将状态保存到外部,完全清除上下文,以完整信号恢复

会话开始:新鲜上下文 + 加载分类账
↓ 专注工作
完成任务,保存到分类账
↓ /clear
新鲜上下文 + 加载分类账
↓ 以完整信号继续
  • 分类账是无损的 - 你控制保存什么
  • 新鲜上下文 = 完整信号 - 没有退化的摘要
  • 代理以干净状态生成 - 每个代理都有隔离的上下文窗口

会话内(分类账)

在运行 /clear 之前:

"更新分类账,我要清除了"

创建/更新 CONTINUITY_CLAUDE-<session>.md,包含:

  • 目标和约束
  • 已完成和待完成的内容
  • 关键决策
  • 工作文件

会话间(交接)

当天结束时:

"创建交接,今天完成了"

创建详细交接,包含:

  • 完整上下文
  • 带有 file:line 引用的最近更改
  • 学习和模式
  • 下一步

Continuous Claude 使用复杂的钩子系统来拦截 Claude Code 生命周期事件:

事件时机作用
SessionStart新会话、/clear、压缩将分类账 + 最新交接加载到上下文
PreCompact上下文压缩前创建自动交接,阻止手动压缩
UserPromptSubmit处理用户消息前显示技能建议、上下文警告
PostToolUseEdit/Write/Bash 后跟踪修改的文件以自动摘要
SubagentStop代理完成记录代理完成
SessionEnd会话关闭清理临时文件

工具通过脚本执行,而不是加载到上下文中。这节省了大量 token:

Terminal window
# 示例:运行脚本
uv run python -m runtime.harness scripts/qlty_check.py --fix

对于复杂的实现,implement_plan 编排器会生成任务代理:

implement_plan(编排器)
├── task-agent(任务 1)→ handoff-01.md
├── task-agent(任务 2)→ handoff-02.md
└── task-agent(任务 3)→ handoff-03.md

每个任务代理:

  1. 读取前一个交接
  2. 用 TDD 完成工作
  3. 为下一个代理创建交接
  4. 向编排器返回摘要
Terminal window
# 克隆
git clone https://github.com/parcadei/Continuous-Claude.git
cd Continuous-Claude
# 安装 Python 依赖
uv sync
# 配置(可选 - 添加额外功能的 API 密钥)
cp .env.example .env
# 启动
claude
Terminal window
# 克隆并同步后
./install-global.sh
Terminal window
cd your-project
~/.claude/scripts/init-project.sh

Continuous Claude 响应自然语言。说出特定短语,Claude 会激活正确的技能或生成代理。

说这个发生什么
”保存状态”、“更新分类账”、“清除前”更新连续性分类账
”今天完成了”、“收工”、“创建交接”创建详细交接文档
”恢复工作”、“从交接继续”加载交接,继续
说这个发生什么
”创建计划”、“设计”、“架构”生成 plan-agent
”验证计划”、“实现前”生成 validate-agent
”实现计划”、“执行计划”生成 implement_plan
说这个发生什么
”实现”、“添加功能”、“修复 bug”TDD 工作流 激活
”lint”、“代码质量”、“自动修复”运行 qlty-check
”提交”、“推送”、“保存更改”运行 commit 技能

彩色状态栏显示上下文使用情况:

45.2K 23% | main U:3 | ✓ Fixed auth → Add tests

颜色编码:

  • 🟢 绿色(< 60%):正常
  • 🟡 黄色(60-79%):警告 - 考虑尽快交接
  • 🔴 红色(≥ 80%):紧急 - 立即创建交接

技能 在当前上下文中运行 - 快速、专注、最小 token 开销。

代理 以新鲜上下文生成 - 用于在压缩上下文中会退化的复杂任务。

  • 棕地探索 → rp-explorer
  • 多步骤研究 → research-agent
  • 复杂调试 → debug-agent
  • 带交接的实现 → implement_plan

跟踪每个会话以从过去的工作中学习:

  1. 会话追踪 - 记录每个回合、工具调用和 LLM 响应
  2. 自动学习 - 在会话结束时提取”有效/失败/模式”
  3. 工件索引集成 - 交接链接到追踪 ID

将会话学习转化为永久规则:

"复合我的学习"
→ 分析 .claude/cache/learnings/*.md
→ 识别重复模式
→ 在 .claude/rules/ 中创建新规则
.claude/
├── skills/ # 技能定义 (SKILL.md)
├── hooks/ # 会话生命周期 (TypeScript)
├── agents/ # 代理配置
├── rules/ # 行为规则
└── settings.json # 钩子注册
scripts/ # MCP 工作流脚本
thoughts/ # 研究、计划、交接

对比:传统方法 vs Continuous Claude

Section titled “对比:传统方法 vs Continuous Claude”
方面传统方法Continuous Claude
上下文退化累积损失零损失
会话连续性手动笔记自动分类账
代理上下文继承退化的新鲜隔离的
学习循环复合学习
Token 效率工具加载在上下文中脚本外部执行
  1. /clear 前更新分类账 - 始终先保存状态
  2. 在停止点创建交接 - 不要等到上下文紧急
  3. 对复杂任务使用代理 - 它们获得干净的上下文
  4. 利用复合学习 - 将模式转化为规则
  5. 关注状态行 - 它显示何时创建交接

Continuous Claude 代表了我们如何处理 AI 编码助手上下文管理的范式转变。通过拥抱”清除,而不是压缩”并通过分类账和交接构建强大的状态保存,它实现了:

  • 跨会话的无损上下文保存
  • 无上下文污染的 Token 高效 MCP 执行
  • 具有隔离上下文窗口的智能代理编排
  • 随时间改进的持续学习

对于使用 Claude Code 处理复杂、长期运行项目的团队,Continuous Claude 是开发工具包中不可或缺的补充。

个人AI基础设施(PAI):构建属于你自己的AI操作系统

个人AI基础设施(PAI)

个人AI基础设施(PAI):构建属于你自己的AI操作系统

Section titled “个人AI基础设施(PAI):构建属于你自己的AI操作系统”

当前,最强大的AI系统都在企业内部构建,用于提升效率和利润。但如果每个人都能拥有同样精密的AI基础设施呢?这正是**个人AI基础设施(PAI)**所提供的。

由安全研究员和AI先驱Daniel Miessler创建,PAI是一个开源模板,用于构建你自己的AI驱动操作系统。它是创建个人AI系统的基础——理解你的长远目标和上下文,随时间改进,为服务,因为它是你的

PAI(Personal AI Infrastructure)是基于Claude Code构建的开源脚手架,设计为平台无关。其架构、技能和工作流的结构使得未来迁移到其他AI平台变得简单。

“世界上最好的AI应该对每个人开放。”

技术的目的是服务人类——而不是相反。PAI使普通人能够使用AI来帮助他们成长,不仅仅是企业内的技术工作者。

技能是具有路由、工作流和文档的自包含AI能力。每个技能遵循”技能即容器”模式:

组件描述
技能(Skills)编码为可复用模块的领域专业知识(安全分析、内容创作、研究工作流)
代理(Agents)用于不同任务的专业AI人格(工程师、研究员、设计师)
钩子(Hooks)捕获工作和管理状态的事件驱动自动化
历史(History)捕获一切的自动文档系统(UOCS)

PAI不是将所有内容塞入巨大的提示词中,而是将知识组织成层级结构:

  • 项目(Projects):带上下文的活跃工作
  • 方法论(Methodologies):你解决问题的方式
  • 哲学(Philosophy):你的原则和价值观
  • 工具(Tools):技术能力
  • 任务(Tasks):具体的动作和工作流

每个目录包含专门的知识,仅在需要时加载。

PAI包含与Fabric模式的原生集成——248+个用于内容分析和生成的AI模式:

  • extract_wisdom:从内容中提取关键见解
  • summarize:创建简洁摘要
  • threat_modeling:安全分析工作流
  • 还有245+个模式

模式直接在Claude的上下文中运行,使用你订阅的模型,完全访问对话历史。

PAI建立在13条基础原则上:

  1. 清晰思考+提示词为王 - 质量输出取决于质量思考
  2. 脚手架 > 模型 - 系统架构比AI模型能力更重要
  3. 尽可能确定性 - 相同输入 → 相同输出
  4. 代码优先于提示词 - 用代码解决问题,提示词用于编排
  5. 规格/测试/评估优先 - 在实现之前定义预期行为
  6. UNIX哲学 - 做好一件事,通过标准接口组合工具
  7. 工程/SRE原则 - 将软件工程严谨性应用于AI系统
  8. CLI作为接口 - 每个操作都可通过命令行访问
  9. 目标 → 代码 → CLI → 提示词 → 代理 - 正确的开发管道
  10. 元/自我更新系统 - 能够自我改进的系统
  11. 自定义技能管理 - 技能作为组织单元
  12. 自定义历史系统 - 自动捕获有价值的工作
  13. 自定义代理人格 - 用于不同任务的专业代理
Terminal window
# 1. 克隆PAI
git clone https://github.com/danielmiessler/PAI.git ~/PAI
# 2. 创建符号链接
[ -d ~/.claude ] && mv ~/.claude ~/.claude.backup
ln -s ~/PAI/.claude ~/.claude
# 3. 运行设置向导
~/.claude/Tools/setup/bootstrap.sh
# 4. 配置API密钥
cp ~/.claude/.env.example ~/.claude/.env
nano ~/.claude/.env
# 5. 启动Claude Code
source ~/.zshrc
claude
Terminal window
# 与macOS相同步骤,但source ~/.bashrc
source ~/.bashrc
claude

Windows设置(以管理员身份运行PowerShell)

Section titled “Windows设置(以管理员身份运行PowerShell)”
Terminal window
# 克隆并创建符号链接
git clone https://github.com/danielmiessler/PAI.git $env:USERPROFILE\PAI
New-Item -ItemType SymbolicLink -Path "$env:USERPROFILE\.claude" -Target "$env:USERPROFILE\PAI\.claude"
# 运行设置并配置
& "$env:USERPROFILE\.claude\tools\setup\bootstrap.ps1"
Copy-Item "$env:USERPROFILE\.claude\.env.example" "$env:USERPROFILE\.claude\.env"

在添加复杂性之前,先构建使AI可靠的脚手架。遵循Miessler的”解决一次,永远复用”哲学,每个组件都变得可复用。

每次解决问题时,将其转化为可复用组件:

  • 命令用于特定工作流(write-blog-postanalyze-security
  • Fabric模式用于内容分析和生成
  • 技能用于领域专业知识

历史系统解决了会话之间的上下文丢失问题。一切都被自动记录:

  • 工作产出和决策
  • 使用的模式和方法
  • 学到的经验

PAI完全平台无关——你的AI身份,你的系统:

  • 配置你的DA(数字助手)名称
  • 设置你的偏好和原则
  • 定义你的工作风格
  • 带领域上下文的威胁建模
  • 漏洞分析工作流
  • 安全报告生成
  • 用你的声音写博客文章
  • 研究综合和摘要
  • 文档生成
  • 按你的标准进行代码审查
  • 架构决策文档
  • 项目脚手架
  • 研究捕获和组织
  • 学习文档
  • 决策日志
类别选择
运行时Bun(不是Node.js)
语言TypeScript(不是Python)
包管理器Bun
格式Markdown
测试Vitest
语音ElevenLabs TTS
  • 可观测性仪表板:带实时图表的实时代理监控
  • 通用化身份:在整个系统中配置你的DA名称
  • 平台无关配置:身份/路径与API密钥的清晰分离
  • 原生Fabric模式:248个模式直接在Claude上下文中运行

不!PAI旨在让普通人也能访问精密的AI基础设施。虽然技术知识有帮助,但目标是人类的成长,而不仅仅是开发者生产力。

Q: 我可以用Claude以外的模型使用PAI吗?

Section titled “Q: 我可以用Claude以外的模型使用PAI吗?”

可以。虽然目前基于Claude Code构建,但PAI的架构是平台无关的。技能、工作流和模式可以迁移到其他AI平台。

Q: PAI与直接使用Claude Code有什么不同?

Section titled “Q: PAI与直接使用Claude Code有什么不同?”

PAI在Claude Code之上添加了结构、历史、技能和模式。它不是不同的AI——而是一个使Claude Code专门为你工作的框架。

是的,PAI在MIT许可下开源。你需要Claude订阅来获得底层AI能力。

特性PAI原生Claude Code自定义GPTs
技能系统✅ 65+技能有限
历史持久化✅ 自动
原生Fabric✅ 248模式
自我更新
开源✅ MITN/A
平台无关

个人AI基础设施代表了我们思考AI辅助方式的范式转变。与其依赖通用聊天机器人或企业AI系统,PAI使个人能够构建以下AI基础设施:

  • 了解你的上下文:你的目标、偏好和工作风格
  • 随时间学习:历史积累,模式浮现
  • 服务你的利益:不是参与度指标或企业利润
  • 属于你自己:开源、可移植、可定制

正如Daniel Miessler所指出的,AI基础设施的真正力量不在于模型智能,而在于编排。当你创建一个了解你、适应你需求、代表你自主工作的系统时,魔法就会发生。

从干净开始。从小规模开始。构建你需要的AI基础设施。

OpenSkills:AI 编程助手通用技能加载器

OpenSkills:AI 编程助手通用技能加载器

Section titled “OpenSkills:AI 编程助手通用技能加载器”

AI 编程助手已经彻底改变了软件开发方式,但每个助手都在自己的生态系统中运行,拥有独特的能力。OpenSkills 打破了这一壁垒,将 Anthropic 强大的技能系统带给所有 AI 编程助手。

OpenSkills 是一个通用技能加载器,它为任何 AI 编程助手实现了 Anthropic 的 Agent Skills 规范。它将 Claude Code 的技能系统带给 Cursor、Windsurf、Aider 和其他助手,实现 100% 兼容

Terminal window
npm i -g openskills
openskills install anthropics/skills
openskills sync

每个 AI 编程助手都有自己处理专业能力的方式:

  • Claude Code 拥有内置技能系统和市场
  • Cursor 使用自定义规则和指令
  • Windsurf 有自己的知识管理方式
  • Aider 依赖约定和提示词

这种碎片化意味着技能和工作流无法在助手之间迁移。

OpenSkills 提供了一种跨所有助手通用的技能格式:

  • 相同的提示词格式 - <available_skills> XML 结构
  • 相同的市场 - 访问 Anthropic 官方技能
  • 相同的文件夹结构 - 默认使用 .claude/skills/
  • 相同的 SKILL.md 格式 - YAML 前置信息 + markdown 指令
  • 渐进式加载 - 按需加载技能,而非预先加载

OpenSkills 通过使用 CLI 命令而非专有工具调用,适用于任何 AI 编程助手:

方面Claude CodeOpenSkills
调用方式Skill("pdf")openskills read pdf
提示词格式<available_skills> XML完全相同
文件夹结构.claude/skills/完全相同
SKILL.md 格式YAML + markdown完全相同

从多种来源安装技能:

Terminal window
# Anthropic 官方市场
openskills install anthropics/skills
# 任何 GitHub 仓库
openskills install your-org/custom-skills
# 本地路径
openskills install ./local-skills/my-skill
# 私有 git 仓库
openskills install git@github.com:your-org/private-skills.git

技能仅在需要时加载,保持助手的上下文干净专注。当助手需要技能时:

  1. 助手扫描 AGENTS.md 中的 <available_skills>
  2. 助手执行 openskills read <skill-name>
  3. 完整技能指令加载到上下文
  4. 助手按照指令完成任务

技能可以包含支持资源:

my-skill/
├── SKILL.md # 主要指令
├── references/
│ └── api-docs.md # 支持文档
├── scripts/
│ └── process.py # 辅助脚本
└── assets/
└── template.json # 模板、配置
Terminal window
npm i -g openskills

需要 Node.js 20.6+ 和 Git。

Terminal window
# 从市场交互式选择
openskills install anthropics/skills
# 非交互式安装所有技能
openskills install anthropics/skills -y

Anthropic 市场提供的技能:

  • pdf - PDF 操作(提取、合并、拆分、表单)
  • xlsx - 电子表格创建和分析
  • docx - 文档创建与修订追踪
  • pptx - 演示文稿创建和编辑
  • canvas-design - 创建海报和视觉设计
  • mcp-builder - 构建 Model Context Protocol 服务器
  • skill-creator - 技能编写指南
Terminal window
openskills sync

这会用 <available_skills> 部分更新你的 AGENTS.md 文件:

<skills_system priority="1">
<available_skills>
<skill>
<name>pdf</name>
<description>综合 PDF 操作工具包...</description>
<location>project</location>
</skill>
</available_skills>
</skills_system>
Terminal window
# 项目本地(默认,被 gitignore)
openskills install anthropics/skills
# 全局(在所有项目间共享)
openskills install anthropics/skills --global

如果你同时使用 Claude Code 和其他助手:

Terminal window
openskills install anthropics/skills --universal

这会安装到 .agent/skills/ 以避免与 Claude Code 原生市场冲突。

优先级顺序:

  1. ./.agent/skills/(项目通用)
  2. ~/.agent/skills/(全局通用)
  3. ./.claude/skills/(项目)
  4. ~/.claude/skills/(全局)

用于活跃的技能开发:

Terminal window
# 克隆你的技能仓库
git clone git@github.com:your-org/my-skills.git ~/dev/my-skills
# 符号链接到项目
mkdir -p .claude/skills
ln -s ~/dev/my-skills/my-skill .claude/skills/my-skill
# 更改立即生效
openskills sync
---
name: my-skill
description: 这个技能做什么以及何时使用
---
# 指令
当用户要求你做 X 时,执行 Y...
my-skill/
├── SKILL.md
├── references/ # 支持文档
├── scripts/ # 辅助脚本
└── assets/ # 模板、配置
  1. 用你的技能创建 GitHub 仓库
  2. 用户通过以下命令安装:openskills install username/repo-name

使用 OpenSkills 在组织内共享技能,无论团队成员偏好哪个 AI 助手:

Terminal window
# 包含共享技能的团队仓库
openskills install your-org/team-skills

从任何 GitHub 仓库安装技能,不仅限于 Anthropic 市场:

Terminal window
openskills install community-user/useful-skills

将专有技能保存在私有仓库中:

Terminal window
openskills install git@github.com:enterprise/internal-skills.git

无论你使用 Claude Code、Cursor 还是 Windsurf,都能使用相同的技能:

Terminal window
# 处处可用
openskills read pdf

OpenSkills 使用 CLI 命令而非 MCP(Model Context Protocol),因为:

  1. 技能是静态指令 - 不是需要服务器连接的动态工具
  2. 不需要服务器 - 技能只是 markdown 文件
  3. 通用兼容性 - CLI 适用于任何助手
  4. 遵循 Anthropic 设计 - 技能被设计为 SKILL.md 文件
  5. 对用户更简单 - 无需服务器管理

MCP 和技能解决不同的问题。OpenSkills 按照设计实现了技能规范。

每个技能应该处理一个特定领域。不要创建”万能”技能。

描述帮助助手决定何时加载技能:

description: 综合 PDF 操作工具包,用于提取文本和表格、创建新 PDF、合并/拆分文档和处理表单

将详细指令放在 SKILL.md 中,而非描述中。这样可以保持 <available_skills> 部分简洁。

在指令中用具体示例帮助助手理解如何使用你的技能。

特性OpenSkills自定义提示词MCP
通用性按助手不同需要支持
渐进式加载
市场访问不同
设置复杂度各异较高
捆绑资源有限

OpenSkills 通过使 Anthropic 精心设计的技能系统对所有助手可用,使 AI 助手技能民主化。无论你使用 Claude Code、Cursor、Windsurf 还是 Aider,你现在都可以受益于:

  • 跨助手标准化技能格式
  • 通过 GitHub 访问 Anthropic 市场
  • 渐进式加载保持干净上下文
  • 团队和社区间轻松共享技能

立即开始使用:

Terminal window
npm i -g openskills
openskills install anthropics/skills
openskills sync

SkillsMP:AI 代理技能开放市场

SkillsMP Cover

AI 编程助手已经成为开发者不可或缺的工具,但它们的能力往往局限于内置功能。SkillsMP 改变了这一现状,提供了一个开放的市场平台,开发者可以在多个 AI 平台上发现、安装和共享技能。

SkillsMP 是一个开源市场,托管超过 31,000 个代理技能,可与最流行的 AI 编程助手无缝协作:

  • Claude Code - Anthropic 官方 CLI 工具
  • Codex CLI - OpenAI 命令行界面
  • ChatGPT - 全球最受欢迎的 AI 助手

所有技能都使用统一的 SKILL.md 格式,确保跨平台兼容性,便于在不同 AI 工具之间共享能力。

SKILL.md 格式是代理技能生态系统的基础。它通过以下方式定义模块化能力:

  • 指令 - 清晰地指导 AI 技能的作用和使用方法
  • 脚本(可选)- 扩展功能的支持代码
  • 模板(可选)- 常用输出的预构建结构

技能是模型调用的,而不是用户调用的。这意味着 AI 助手会根据请求的上下文决定何时激活技能,而不需要显式命令。

---
name: my-skill
description: 这个技能做什么以及何时使用
---
# 指令
当用户要求做 X 时,按照以下步骤...

不同的 AI 工具有各自的技能目录:

工具个人技能项目技能
Claude Code~/.claude/skills/.claude/skills/
Codex CLI~/.codex/skills/.codex/skills/
ChatGPT通过插件系统通过插件系统

SkillsMP 将其庞大的技能库组织成 13 个类别

  1. 工具 - 通用生产力增强器
  2. 开发 - 代码生成和重构
  3. 数据与AI - 数据分析和机器学习工具
  4. 商业 - 业务流程自动化
  5. DevOps - 基础设施和部署
  6. 测试与安全 - 质量保证和安全扫描
  7. 文档 - 文档生成和维护
  8. 内容与媒体 - 内容创作工具
  9. 生活方式 - 个人生产力
  10. 研究 - 信息收集
  11. 数据库 - 数据库操作
  12. 区块链 - Web3 和加密货币工具

SkillsMP 通过以下方式保持质量:

  • 最少 2 星过滤 - 只收录经过社区验证的 GitHub 仓库
  • 开源要求 - 所有技能都可公开审计
  • 建议用户审查 - 安装前务必审查代码

访问 skillsmp.com 浏览市场。你可以:

  • 按关键词搜索
  • 按类别筛选
  • 按热度或时间排序
  • 查看技能文档

对于 Claude Code,安装非常简单:

Terminal window
# 从市场安装技能
curl -O https://skillsmp.com/skills/skill-name/SKILL.md
mv SKILL.md ~/.claude/skills/skill-name/

许多技能还通过其 marketplace.json 配置支持一键安装。

Claude Code 支持同时运行多个技能。AI 会根据上下文智能选择要激活的技能,实现组合多种能力的复杂工作流程。

想要为市场做贡献?创建技能只需要一个 SKILL.md 文件:

---
name: my-custom-skill
description: 对这个技能功能的简要描述
author: your-github-username
version: 1.0.0
---
# 我的自定义技能
## 使用时机
当用户请求...时使用此技能
## 指令
1. 首先,做这个...
2. 然后,做那个...
3. 最后,完成...
## 示例
### 示例 1
用户:"帮我处理 X"
响应:[如何处理此请求]
  1. 创建包含你技能的 GitHub 仓库
  2. 添加 marketplace.json 以便于安装
  3. 提交给 SkillsMP 进行索引

重要提示:SkillsMP 是一个独立的社区项目。它与 Anthropic 或 OpenAI 没有关联

官方技能资源:

  1. 安装前审查 - 务必检查源代码
  2. 从热门技能开始 - 更多星标表示社区信任
  3. 保持技能更新 - 定期检查更新
  4. 报告问题 - 帮助改善生态系统
  1. 编写清晰的描述 - 帮助用户了解何时使用你的技能
  2. 包含示例 - 展示具体的使用场景
  3. 详尽文档 - 解释所有功能和限制
  4. 跨平台测试 - 确保兼容性

围绕 SKILL.md 的标准化代表了扩展 AI 能力方式的重大转变。随着更多开发者创建和共享技能:

  • 专业化增强 - 技能变得更加专注和强大
  • 质量提升 - 社区策展推动卓越
  • 采用率增长 - 简易安装消除障碍
  • 创新加速 - 在他人工作基础上构建加速开发

SkillsMP 通过以下方式使 AI 代理能力民主化:

  • 31,000+ 即用技能,跨越 13 个类别
  • 跨平台兼容性,通过 SKILL.md 标准
  • 开源透明,配合社区质量控制
  • 简易安装,支持所有主要 AI 编程助手

无论你是想增强 AI 编程工作流程,还是想为社区贡献自己的技能,SkillsMP 都提供了实现这一目标的平台。

Agent Skills 上下文工程指南:构建生产级 AI 智能体系统

Agent Skills 上下文工程指南:构建生产级 AI 智能体系统

Section titled “Agent Skills 上下文工程指南:构建生产级 AI 智能体系统”

在快速发展的 AI 开发领域,上下文工程(Context Engineering) 已成为构建有效智能体系统最关键的学科之一。与专注于编写有效指令的提示工程不同,上下文工程解决的是如何全面管理进入模型有限注意力窗口的所有信息。

Agent Skills for Context Engineering 是由 Murat Can Koylan 创建的一个全面、开源的技能集合,旨在教授策划上下文的艺术和科学,以最大化任何平台上的智能体效能。

上下文工程是管理语言模型上下文窗口的学科。核心挑战在于上下文窗口不是受原始 token 容量限制,而是受注意力机制限制。

随着上下文长度增加,模型会表现出可预测的退化模式:

  • 中间丢失现象(Lost-in-the-Middle) - 长上下文中间的信息获得的注意力更少
  • U形注意力曲线 - 模型更关注上下文的开头和结尾
  • 注意力稀缺 - 有限的”注意力预算”必须明智分配

有效的上下文工程意味着找到最小可能的高信号 token 集合,以最大化预期结果的可能性。这需要理解什么是上下文、它如何退化,以及如何优化它。

该集合按照复杂度递增分为三个层级。

这些技能建立了后续所有上下文工程工作所需的基础理解。

技能描述
context-fundamentals理解什么是上下文、为什么重要,以及智能体系统中上下文的结构
context-degradation识别上下文失效模式:中间丢失、污染、干扰和冲突
context-compression为长时运行会话设计和评估压缩策略

这些技能涵盖构建有效智能体系统的模式和结构。

技能描述
multi-agent-patterns掌握编排器、点对点和分层多智能体架构
memory-systems设计短期、长期和基于图的记忆架构
tool-design构建智能体可以有效使用的工具

这些技能解决智能体系统的持续运行和优化问题。

技能描述
context-optimization应用压缩、掩码和缓存策略
evaluation为智能体系统构建评估框架

理解智能体系统中上下文的结构至关重要:

上下文组成部分:

  • 系统提示词
  • 工具定义
  • 检索到的文档
  • 消息历史
  • 工具输出

每个组成部分都在竞争有限的注意力。有效的智能体会优先处理高信号信息,压缩或消除低信号内容。

识别失效模式有助于预防它们:

中间丢失(Lost-in-Middle): 放置在长上下文中间的关键信息获得的模型注意力较少。

上下文污染(Context Poisoning): 错误或冲突的信息破坏模型的理解。

上下文干扰(Context Distraction): 无关信息分散了对重要内容的注意力。

上下文冲突(Context Clash): 矛盾的指令或数据造成混乱。

多智能体系统的三种主要架构:

编排器模式(Orchestrator Pattern): 一个中央智能体协调专门的子智能体,管理任务委派和结果汇总。

[编排器]
/|\
/ | \
/ | \
[智能体][智能体][智能体]

点对点模式(Peer-to-Peer Pattern): 智能体直接通信,无需中央协调,适合协作任务。

分层模式(Hierarchical Pattern): 分层的智能体结构,高层智能体管理低层智能体组。

有效的智能体需要多种记忆类型:

短期记忆:

  • 最近的对话上下文
  • 当前任务状态
  • 即时工作记忆

长期记忆:

  • 持久知识存储
  • 用户偏好
  • 历史模式

基于图的记忆:

  • 概念之间的关系图
  • 实体连接
  • 语义网络

通过引用仓库或将技能文件夹复制到配置的技能目录来安装技能:

Terminal window
# 克隆仓库
git clone https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering.git
# 复制技能到你的项目
cp -r Agent-Skills-for-Context-Engineering/skills/* ./skills/

在处理上下文工程任务时,激活相关技能以加载其指令。

将技能内容复制到 .cursorrules 或创建项目特定的规则文件:

Terminal window
# 创建规则文件
cat skills/context-fundamentals/SKILL.md >> .cursorrules

这些技能提供 Cursor 智能体进行有效上下文工程所需的上下文和指南。

从任何技能中提取原则和模式,在你的智能体框架中实现它们。这些技能故意设计为平台无关,使其适用于任何基于 LLM 的系统。

开发面向实际部署的智能体时:

  • 从基础开始 - 在优化之前理解上下文结构
  • 尽早设计记忆 - 记忆架构影响所有下游决策
  • 规划退化应对 - 内置监控和恢复机制
  • 规模测试 - 评估框架在生产前捕获问题

对于已有智能体系统的团队:

  • 诊断上下文问题 - 使用退化模式识别问题
  • 应用压缩策略 - 在不丢失信号的情况下减少 token 使用
  • 实现缓存 - 避免冗余的上下文加载
  • 添加监控 - 建立对上下文使用的可见性

构建多个协调智能体的系统时:

  • 选择正确的模式 - 编排器 vs 点对点 vs 分层
  • 设计通信协议 - 智能体如何共享上下文
  • 管理共享记忆 - 无冲突的协调
  • 优雅处理故障 - 智能体失败时的恢复

用于学习智能体开发:

  • 渐进式披露 - 技能按逻辑顺序相互构建
  • 实用示例 - Python 伪代码演示概念
  • 平台无关 - 学习原则,而非供应商锁定
  • 开源 - 学习、修改和贡献
1. 加载 context-fundamentals 技能
2. 审查夜间智能体日志中的退化模式
3. 识别上下文瓶颈
4. 规划优化任务
5. 更新监控仪表板
1. 激活 multi-agent-patterns 技能
2. 设计智能体架构图
3. 为每个智能体定义上下文边界
4. 实现记忆系统
5. 构建评估框架
6. 使用 context-degradation 检查进行测试
1. 加载 context-degradation 技能
2. 识别症状(中间丢失?污染?)
3. 追踪系统中的上下文流
4. 应用适当的修复策略
5. 使用 evaluation 技能验证

该集合遵循三个关键原则:

1. 渐进式披露

每个技能都为高效上下文使用而结构化。启动时,智能体只加载技能名称和描述。只有在为相关任务激活技能时才加载完整内容。

2. 平台无关性

这些技能专注于可转移的原则,而非供应商特定的实现。这些模式适用于 Claude Code、Cursor 以及任何支持技能或允许自定义指令的智能体平台。

3. 概念基础与实用示例相结合

脚本和示例使用 Python 伪代码演示概念,可在不需要特定依赖安装的情况下跨环境工作。

每个技能遵循 Agent Skills 规范:

skill-name/
├── SKILL.md # 必需:指令 + 元数据
├── scripts/ # 可选:可执行代码
└── references/ # 可选:额外文档

贡献新技能时:

  1. 遵循技能模板结构
  2. 提供清晰、可操作的指令
  3. 在适当时包含工作示例
  4. 记录权衡和潜在问题
  5. 保持 SKILL.md 在 500 行以内以获得最佳性能
功能Agent Skills自定义规则框架文档
平台支持任何平台特定框架特定
焦点上下文工程通用框架使用
结构标准化可变可变
渐进加载
开源MIT不定不定
示例Python 伪代码不定框架特定

相比自定义规则:

  • 标准化结构实现共享和复用
  • 渐进式披露减少初始上下文成本
  • 社区贡献扩展覆盖范围

相比框架文档:

  • 专注于原则,而非实现细节
  • 可跨平台转移
  • 面向生产系统的实用导向

Q: 这些技能适用于任何 LLM 吗? A: 是的,这些原则与 LLM 无关。示例使用 Python 伪代码,可以适应任何环境。

Q: 我怎么知道使用哪个技能? A: 从基础开始,然后为设计决策使用架构技能,为优化使用运维技能。

Q: 我可以贡献新技能吗? A: 当然可以!遵循模板结构并提交 pull request。欢迎社区贡献。

Q: 使用这些技能有相关费用吗? A: 没有,仓库采用 MIT 许可证。但是,你使用这些技能的 LLM 可能有相关费用。

Q: 技能如何处理上下文限制? A: 渐进式披露意味着只加载相关内容。每个技能设计为保持在 500 行以内。

技能无法加载:

  • 确保技能文件夹结构正确
  • 检查技能目录中是否存在 SKILL.md
  • 验证文件权限

智能体性能不佳:

  • 查看 context-degradation 技能以获取诊断模式
  • 检查是否超出上下文窗口
  • 评估信息信噪比

多智能体协调问题:

  • 查看 multi-agent-patterns 技能
  • 检查消息传递协议
  • 验证共享记忆访问模式

上下文工程正在成为 AI 开发中与软件工程原则对传统开发一样基础的学科。Agent Skills for Context Engineering 为掌握这一关键学科提供了结构化、开放和平台无关的基础。

无论你是在构建第一个智能体还是优化生产多智能体系统,这些技能都提供了成功所需的概念基础和实用指导。渐进式披露设计意味着你可以从小处开始,根据需要扩展,而平台无关的方法确保你的学习可以跨工具和框架转移。

AI 智能体生态系统正在快速成熟,上下文工程将成为区分”能工作”和”工作得好”的智能体的关键差异化因素。从基础开始,理解退化模式,构建有效管理上下文的系统。


Agent Skills for Context Engineering 探索完整集合,加入构建更好智能体系统的社区。

让Claude Code更加自主工作:VS Code扩展、检查点与Agent SDK完全指南

Anthropic发布了多项重大升级,从根本上改变了开发者与AI驱动开发工具的交互方式。这些更新包括原生VS Code扩展、终端界面2.0版本,以及最重要的——用于自主操作的检查点系统。在Claude Sonnet 4.5的驱动下,Claude Code现在能够以前所未有的信心和控制力处理更长、更复杂的开发任务。

本文将全面介绍这些新的自主化功能,涵盖安装配置、最佳实践和实际工作流程示例。

原生VS Code扩展将Claude Code直接带入你的IDE,提供多项强大功能:

  • 实时变更可视化:通过专用侧边栏面板和内联差异对比实时查看Claude的修改
  • 图形化体验:为偏好IDE而非终端的开发者提供更丰富的可视化Claude Code体验
  • 无缝集成:在现有VS Code工作流中运行,无需上下文切换

安装方式:从VS Code扩展市场下载

刷新后的终端界面包含:

  • 改进的状态可见性:更好地反馈Claude当前操作的视觉信息
  • 可搜索的提示历史:使用Ctrl+r搜索和复用之前的提示
  • 流畅的用户体验:更便捷的导航和命令执行

检查点系统是自主开发的革命性变化:

  • 自动状态保存:在每次修改前自动保存代码状态
  • 即时回退:按两次Esc或使用/rewind命令返回之前的版本
  • 选择性恢复:可选择恢复代码、对话或两者同时恢复
  • 多级撤销:不仅仅是一级撤销——每次修改都会保留检查点

最佳实践:将检查点与版本控制(git)结合使用以获得最大安全性。

子代理可以委托专门任务,实现并行开发工作流:

# 示例:主代理生成专门的子代理
from claude_agent_sdk import query, ClaudeAgentOptions, AgentDefinition
async for message in query(
prompt="构建一个带测试的全栈功能",
options=ClaudeAgentOptions(
allowed_tools=["Read", "Write", "Edit", "Bash", "Task"],
agents={
"backend-dev": AgentDefinition(
description="后端API开发者",
prompt="按照最佳实践构建REST API",
tools=["Read", "Write", "Edit", "Bash"]
),
"frontend-dev": AgentDefinition(
description="前端开发者",
prompt="使用TypeScript构建React组件",
tools=["Read", "Write", "Edit", "Bash"]
),
"test-engineer": AgentDefinition(
description="测试自动化工程师",
prompt="编写全面的测试覆盖",
tools=["Read", "Write", "Bash"]
)
}
)
):
print(message)

钩子在开发生命周期的特定节点触发操作:

  • PostToolUse:代码修改后运行测试
  • PreToolUse:提交前进行代码检查
  • SessionStart/End:初始化或清理资源
  • UserPromptSubmit:验证或转换用户输入
# 示例:文件编辑后自动运行测试
async def run_tests_after_edit(input_data, tool_use_id, context):
file_path = input_data.get('tool_input', {}).get('file_path', '')
if file_path.endswith('.py'):
# 为Python文件运行pytest
return {"command": "pytest", "args": [file_path]}
return {}
options = ClaudeAgentOptions(
hooks={
"PostToolUse": [HookMatcher(matcher="Edit", hooks=[run_tests_after_edit])]
}
)

保持长时间运行的进程活跃而不阻塞进度:

  • 开发服务器持续运行
  • 构建监视器监控变更
  • 数据库迁移在后台运行
  • 编译任务异步执行
  • Node.js:18或更高版本
  • Python:3.10或更高版本(Python SDK需要)
  • 操作系统:macOS、Linux或带WSL的Windows

macOS/Linux/WSL:

Terminal window
curl -fsSL https://claude.ai/install.sh | bash

Homebrew(macOS):

Terminal window
brew install --cask claude-code

npm:

Terminal window
npm install -g @anthropic-ai/claude-code

TypeScript/Node.js:

Terminal window
npm install @anthropic-ai/claude-agent-sdk

Python:

Terminal window
pip install claude-agent-sdk
Terminal window
export ANTHROPIC_API_KEY=your-api-key

Anthropic控制台获取密钥。

备选提供商:

  • Amazon BedrockCLAUDE_CODE_USE_BEDROCK=1
  • Google Vertex AICLAUDE_CODE_USE_VERTEX=1
  • Microsoft FoundryCLAUDE_CODE_USE_FOUNDRY=1

重构大型代码库时,检查点+子代理协同工作:

  1. 开始前创建检查点
  2. 为不同模块生成子代理
  3. 每个子代理重构其分配的区域
  4. 钩子在每次修改后运行测试
  5. 如果测试失败,回退到检查点
Terminal window
# 使用测试驱动开发工作流启动Claude Code
claude --with-hooks "每次编辑后运行测试"
# Claude将会:
# 1. 首先编写失败的测试
# 2. 实现代码使测试通过
# 3. 每次编辑后自动运行测试
# 4. 在每个绿色状态创建检查点
# 使用并行代理的全栈API开发
agents = {
"api-designer": AgentDefinition(
description="OpenAPI规范编写者",
prompt="按照OpenAPI 3.0设计RESTful API",
tools=["Read", "Write"]
),
"api-implementer": AgentDefinition(
description="后端实现",
prompt="根据规范实现FastAPI端点",
tools=["Read", "Write", "Edit", "Bash"]
),
"api-tester": AgentDefinition(
description="API测试自动化",
prompt="为所有端点编写pytest测试",
tools=["Read", "Write", "Bash"]
)
}
Terminal window
# 使用Claude审查夜间的PR
claude "审查所有开放的PR,总结变更,识别潜在问题"
Terminal window
# 使用检查点进行安全调试
claude "调试认证模块 - 每次修改前创建检查点"
Terminal window
# 使用钩子自动化代码清理
claude "清理TODO注释,格式化代码,运行代码检查" --auto-commit
  1. 检查点vs Git:检查点只跟踪Claude的编辑,不包括用户编辑或bash命令。始终使用git进行版本控制。

  2. 子代理权限:谨慎授予子代理工具权限。使用最小权限原则。

  3. 后台任务:监控后台任务以防止资源耗尽。

问:可以在没有git的情况下使用检查点吗? 答:可以,但不推荐。检查点是版本控制的补充,不是替代。

问:可以并行运行多少个子代理? 答:没有硬性限制,但存在资源约束。建议从2-3个开始,根据系统情况扩展。

问:钩子会减慢开发速度吗? 答:开销很小。钩子在可能的情况下异步运行。

问:可以使用Claude Code配合本地模型吗? 答:Agent SDK支持Bedrock、Vertex AI和Foundry。本地模型支持取决于提供商兼容性。

问题解决方案
检查点未保存检查磁盘空间和权限
子代理超时增加选项中的超时时间或简化任务
钩子未触发验证匹配器正则表达式是否匹配工具名称
API密钥无效从控制台重新生成密钥
功能Claude CodeGitHub CopilotCursorCody
检查点✅ 内置
子代理✅ 原生
钩子✅ 丰富有限有限
VS Code扩展✅ Beta✅ 稳定N/A
终端CLI✅ 完整
Agent SDK✅ Python/TS
  • Claude Code:最适合具有完全控制的自主复杂开发
  • GitHub Copilot:最适合内联代码建议
  • Cursor:最适合AI优先的IDE体验
  • Cody:最适合企业代码理解

Claude Code的自主化升级代表了AI辅助开发的重大飞跃。检查点、子代理、钩子和后台任务的组合创造了一个开发环境,让你可以自信地委托复杂任务,同时保持完全控制。无论你是在重构遗留代码库、构建新功能还是探索实验性方法,这些工具都提供了安全网和并行处理能力,让你比以往任何时候都更高效地工作。

建议从VS Code扩展开始,获得更平缓的学习曲线,然后逐步使用Agent SDK构建针对你特定工作流的生产级自主代理。

Claude Code 系统提示词全揭秘:解密你的 AI 编程助手

深入了解 Anthropic AI 编程助手的隐藏架构

Claude Code System Prompts


你是否好奇过 Claude Code 是如何运作的?感谢开源社区,特别是 Piebald-AI/claude-code-system-prompts 这个仓库,我们现在可以前所未有地窥探到这个市场上最受欢迎的 AI 编程助手背后复杂的系统提示词。

这个由 Piebald 团队维护的仓库,全面收录了 Claude Code 的各种系统提示词,并随每个新版本更新。截至 Claude Code v2.0.75(2025年12月20日),它已经涵盖了从 v2.0.14 以来 56 个版本的更新日志。


为什么 Claude Code 有多个系统提示词

Section titled “为什么 Claude Code 有多个系统提示词”

Claude Code 不只是用一个简单的字符串作为系统提示词。 相反,它由多个组件协同工作:

组件类型描述
条件提示词根据环境和配置动态添加的大块内容
工具描述内置工具如 WriteBashTodoWrite 的说明
代理提示词Explore、Plan 和 Task 代理的独立系统提示词
实用功能对话压缩、CLAUDE.md 生成等 AI 驱动的功能

最终结果是 40+ 个字符串,它们在一个非常大的压缩 JS 文件中不断变化和移动。


核心系统提示词定义了 Claude Code 的基本行为:

沟通风格:

  • 响应应该”简短精炼”,适合命令行显示
  • 使用 GitHub 风格的 Markdown,针对等宽字体格式化
  • 除非明确要求,否则避免使用表情符号
  • 工具仅用于完成任务,而非与用户沟通

技术方法:

  • 优先考虑技术准确性和真实性
  • 提供直接、客观的技术信息
  • 在提出修改建议前先读取文件
  • 避免过度设计和不必要的抽象
代理Token 数用途
Explore516Explore 子代理的系统提示词
Plan Mode (Enhanced)633Plan 子代理的增强提示词
Task Tool294Task 工具生成的子代理系统提示词
代理Token 数用途
Agent Creation Architect1,111创建带详细规格的自定义 AI 代理
CLAUDE.md Creation384分析代码库并创建 CLAUDE.md 文件
Status Line Setup1,310配置状态行显示
命令Token 数用途
/pr-comments402获取和显示 GitHub PR 评论
/review-pr243审查 GitHub Pull Request
/security-review2,610代码变更的全面安全审查
实用功能Token 数用途
Bash 命令前缀检测835检测命令前缀和注入
对话摘要1,121+创建详细的对话摘要
Claude 指南代理763帮助用户理解 Claude Code
会话标题生成333生成标题和 git 分支名
WebFetch 摘要器185摘要冗长的网页获取输出

Claude Code 的内置工具都有详细的描述:

工具Token 数描述
Bash1,074带安全指南运行 shell 命令
TodoWrite2,167带最佳实践的任务列表管理
Task1,214启动专门的子代理
EnterPlanMode970进入计划模式进行实现设计
ReadFile439支持多模态的文件读取
Edit278文件中的精确字符串替换
Write159创建/覆盖文件
Grep300使用 ripgrep 进行内容搜索

系统提示词在不断演进。以下是近期的关键变化:

  • 精简了任务工具指令
  • 移除了工具调用前不使用冒号的指令
  • 新增”会话搜索助手”代理,用于查找相关会话
  • 移除了委托模式限制
  • 添加”提示建议生成器 v2”,改进意图预测
  • 将斜杠命令功能合并到 Skill 工具
  • 扩展 LSP 功能,支持调用层次操作
  • 通过新的 Computer 工具引入浏览器自动化支持
  • 启用基于 Chrome 的任务执行
  • 规划理念的重大转变:重写 EnterPlanMode,鼓励对非琐碎任务进行主动规划

理解这些提示词可以帮助你:

  1. 更高效地使用 Claude Code - 了解其优先级和约束
  2. 编写更好的提示 - 使你的请求与 Claude Code 的设计保持一致
  3. 调试意外行为 - 理解为什么会出现某些响应

这种透明度提供了:

  1. 学习机会 - 研究生产级 AI 系统是如何进行提示的
  2. 最佳实践 - 了解 Anthropic 如何构建复杂的多代理系统
  3. 研究材料 - 跨工具比较提示策略

想要自定义 Claude Code 的系统提示词?Piebald 团队还创建了 tweakcc,它可以让你:

  • 将系统提示词的各个部分自定义为 Markdown 文件
  • 给你的 npm 安装版或原生版 Claude Code 打补丁
  • 管理你和 Anthropic 同时修改同一提示文件时的冲突

Piebald 被称为”终极 AI 代理开发者体验”。它支持:

  • 多供应商 API:OpenAI 兼容、Anthropic 兼容或 Google 兼容
  • 凭据导入:从 Claude Code、Gemini CLI 和 Codex CLI 导入
  • 完全自定义:提示词、模型设置和可复用配置文件

Piebald-AI/claude-code-system-prompts 仓库为我们提供了前所未有的视角,让我们了解 Claude Code 内部是如何工作的:

  • 40+ 个提示字符串 协同工作
  • 多种代理类型 处理不同任务
  • 详细的工具描述 指导行为
  • 持续演进 跨越 56+ 个版本

这种透明度通过展示生产级 AI 编程助手的架构方式,使整个 AI 开发社区受益。


来源:


你探索过 Claude Code 的系统提示词吗?发现了什么有趣的见解?欢迎在评论区分享!

Hugging Face Skills:用自然语言微调任何开源大模型

将对话转化为微调模型 — 无需机器学习专业知识

Hugging Face Skills


Hugging Face Skills 是一个革命性的系统,它使 AI 编程助手(如 Claude CodeOpenAI CodexGoogle Gemini CLI)能够通过自然语言对话,端到端地微调开源大语言模型。

无需手动编写复杂的训练脚本、配置 GPU 资源或管理部署流程,只需用自然语言描述需求:

用我的客户支持数据集微调 Qwen3-0.6B,训练 3 个 epoch。

AI 助手将自动处理所有环节:数据验证、硬件选择、脚本生成、任务提交、进度监控和模型发布。


功能描述
数据验证训练前自动检查数据集格式兼容性
硬件选择根据模型大小和预算智能选择 GPU
脚本生成使用 TRL 库创建生产级训练脚本
任务提交将训练任务提交到 Hugging Face 云 GPU
实时监控通过 Trackio 仪表板追踪训练进度
模型发布将完成的模型推送到 Hugging Face Hub
GGUF 转换转换模型以便用 llama.cpp/Ollama 本地部署
方法适用场景数据集示例
SFT(监督微调)高质量行为示例客户支持对话
DPO(直接偏好优化)偏好标注数据选中/拒绝的响应对
GRPO(群体相对策略优化)可验证的成功标准数学问题、编程任务
  • Anthropic Claude Code — 通过 MCP 协议完整集成
  • OpenAI Codex — 使用 AGENTS.md 加载指令
  • Google Gemini CLI — 基于扩展的集成方式
  • 即将支持: Cursor、Windsurf、Continue

  • Hugging Face 账号(Pro 或 Team/Enterprise 计划,Jobs 功能需付费)
  • 写入权限 Token,从 huggingface.co/settings/tokens 获取
  • 编程助手(Claude Code、Codex 或 Gemini CLI)
Terminal window
# 第一步:注册 Hugging Face Skills 市场
/plugin marketplace add huggingface/skills
# 第二步:安装 LLM 训练技能
/plugin install hf-llm-trainer@huggingface-skills

备选方案:基于 MCP 安装

Terminal window
# 通过 MCP 传输添加
claude mcp add --transport http hf-skills \
https://huggingface.co/mcp?bouquet=skills \
--header "Authorization: Bearer $HF_TOKEN"

Codex 通过 AGENTS.md 文件自动识别技能:

Terminal window
# 验证安装
codex --ask-for-approval never "Summarize the current instructions."
Terminal window
# 方式一:从 GitHub 安装
gemini extensions install https://github.com/huggingface/skills.git --consent
# 方式二:本地安装
gemini extensions install . --consent
Terminal window
# 交互式登录(推荐)
hf auth login
# 或设置环境变量
export HF_TOKEN=hf_你的写入权限token

使用 SFT 方法,用 my-org/support-conversations 数据集
微调 Qwen3-1.7B,训练 3 个 epoch。

预期工作流:

  1. 助手验证数据集格式(查找 “messages” 列)
  2. 选择 t4-medium 硬件(约 $0.75/小时)
  3. 配置适当的 batch size
  4. 提交任务并提供监控链接
  5. 将模型推送到 your-username/qwen-support-sft

场景二:带偏好学习的代码助手

Section titled “场景二:带偏好学习的代码助手”
第一阶段:在 code-examples 数据集上进行 SFT
第二阶段:使用包含 chosen/rejected 列的 preference-data
进行 DPO 对齐

多阶段流水线:

  • 第一阶段建立基础能力
  • 第二阶段与人类偏好对齐
  • 助手自动处理两个阶段
基于 Qwen3-0.6B,使用 GRPO 方法在 openai/gsm8k
数据集上训练数学推理模型。使用可验证的奖励信号。

最适合:

  • 有正确/错误答案的问题
  • 带单元测试的代码生成
  • 数学证明
  1. 始终先验证

    检查 my-org/training-data 是否适用于 SFT 训练。

    这只需几分钱,却能避免 30+ 美元的失败损失。

  2. 从演示运行开始

    用数据集的 100 个样本做一次快速测试。
  3. 生产环境要明确

    在完整数据集上对 Qwen-0.6B 进行生产级 SFT。
    每 500 步保存检查点,3 个 epoch,余弦学习率。
  4. 实时监控

    我的训练任务进展如何?

    获取实时损失曲线、学习率和预计完成时间。


模型大小推荐 GPU训练时间预估成本备注
<1Bt4-small<1 小时$1-2演示/测试
1-3Bt4-medium / a10g-small2-3 小时$5-15小型生产
3-7Ba10g-large (LoRA)4-8 小时$15-40中型生产
7B+不支持超出工具能力范围

注意: 3B 以上的模型会自动使用 LoRA(低秩适应)以适应内存,同时保持质量。


注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”

问:尝试这个功能的最低成本是多少?

答:使用 t4-small 在 100 个样本上的演示运行大约需要 $0.30-0.50。

问:可以训练 7B 以上的模型吗?

答:当前 HF Skills 系统支持最大 7B。更大的模型需要使用完整的 Hugging Face 基础设施。

问:支持哪些数据集格式?

答:

  • SFT: 包含对话格式的 messages
  • DPO: chosenrejected 列,以及可选的 prompt
  • GRPO: 包含可验证正确答案的数据集

问:如何修复列名不匹配的问题?

答:询问助手:

我的 DPO 数据集使用 'good_response' 和 'bad_response'
而不是 'chosen' 和 'rejected'。如何修复?
问题解决方案
内存不足助手建议减小 batch size 或升级硬件
数据集格式错误先运行验证;助手会识别不匹配
训练超时调整 epoch 数量或使用检查点
认证失败验证 HF_TOKEN 是否有写入权限
  1. 使用 Trackio 仪表板 — 在 huggingface.co/spaces/username/trackio 获得实时训练可视化
  2. 转换为 GGUF — 无需网络依赖即可本地部署
  3. 定期保存检查点 — 从中断中恢复而不丢失进度

方面传统方式HF Skills
准备时间数小时到数天数分钟
需要的机器学习知识大量无需
硬件管理手动自动化
成本可见性训练后提交前
监控自定义设置内置 Trackio
助手集成方式优势
Claude CodeMCP + 插件最适合复杂的多步骤工作流
OpenAI CodexAGENTS.md强大的代码生成能力
Gemini CLI扩展Google 生态系统集成
工具重点主要区别
Hugging Face AutoTrain基于 GUI 的训练可视化界面,对话性较弱
AWS SageMaker企业级机器学习更复杂,范围更广
Google Vertex AI云端机器学习与 GCP 紧密耦合
Together AI推理 + 训练API 优先的方式

为什么选择 HF Skills?

  • 自然语言界面
  • 无需编写代码
  • 中小型模型性价比高
  • 与 Hub 无缝集成


Hugging Face Skills 代表了模型微调方式的范式转变。通过在自然语言和机器学习基础设施之间架起桥梁,它使自定义 AI 模型的创建变得人人可及。

无论您是希望创建专用代码助手的开发者、构建客服机器人的企业,还是探索新训练方法的研究人员,HF Skills 都提供了易用、经济、强大的解决方案。

立即开始:

Terminal window
# 安装技能
/plugin marketplace add huggingface/skills
/plugin install hf-llm-trainer@huggingface-skills
# 认证
hf auth login
# 开始训练!
"用我的数据集微调 Qwen3-0.6B 进行指令跟随训练。"

AI 模型训练的未来是对话式的。欢迎来到 Skills 时代。


最后更新:2025 年 12 月 21 日

n8n-skills:用 Claude Code 构建完美的 n8n 工作流

用 AI 驱动的技能改变你的 n8n 工作流开发方式

n8n-skills Claude Code 集成


n8n-skills 是一套 7 个互补的 Claude Code 技能,旨在教会 AI 助手如何使用 n8n-mcp MCP 服务器构建生产级别的 n8n 工作流。

AI AdvisorsRomuald Członkowski 创建,这些技能解决了开发者在程序化构建 n8n 工作流时面临的常见挑战。


程序化构建 n8n 工作流可能充满挑战。常见问题包括:

挑战n8n-skills 如何帮助
MCP 工具使用不当提供工具选择的专家指导
验证错误循环验证错误解读和修复
不了解工作流模式5 种经过验证的架构模式
节点配置错误操作感知的节点配置
表达式语法错误正确的 {{}} 模式和变量

教授正确的 n8n 表达式语法和常见模式。

触发条件:编写表达式、使用 {{}} 语法、访问 $json/$node 变量时。

核心功能

  • 核心变量 ($json, $node, $now, $env)
  • 关键提醒:Webhook 数据位于 $json.body
  • 常见错误目录及修复方法
  • 何时不使用表达式(Code 节点!)

2. n8n MCP 工具专家(最高优先级)

Section titled “2. n8n MCP 工具专家(最高优先级)”

使用 n8n-mcp MCP 工具的专家指南。

核心功能

  • 工具选择指南(哪个工具用于哪个任务)
  • nodeType 格式差异(nodes-base.* vs n8n-nodes-base.*)
  • 验证配置文件(minimal/runtime/ai-friendly/strict)
  • 智能参数(IF 节点的 branch=“true”)
  • 自动清理系统说明

使用 5 种经过验证的架构模式构建工作流。

核心功能

  • 5 种验证模式(webhook 处理、HTTP API、数据库、AI、定时任务)
  • 工作流创建检查清单
  • 来自 2,653+ n8n 模板的真实示例
  • 模式选择指南

解读验证错误并指导修复。

核心功能

  • 验证循环工作流
  • 真实错误目录
  • 自动清理行为说明
  • 误报指南

操作感知的节点配置指导。

核心功能

  • 属性依赖规则(例如 sendBody → contentType)
  • 操作特定要求
  • AI 连接类型(AI Agent 工作流的 8 种类型)

在 n8n Code 节点中编写有效的 JavaScript 代码。

核心功能

  • 数据访问模式 ($input.all(), $input.first(), $input.item)
  • 正确的返回格式:[{json: {...}}]
  • 内置函数 ($helpers.httpRequest(), DateTime, $jmespath())
  • 前 5 大错误模式及解决方案(覆盖 62%+ 的失败)
  • 10 个生产级测试模式

在 n8n Code 节点中编写 Python 代码,了解适当的限制。

核心功能

  • 重要:95% 的场景使用 JavaScript
  • 关键限制:没有外部库(requests, pandas, numpy)
  • 标准库参考(json, datetime, re 等)
  • 缺失库的替代方案

  1. n8n-mcp MCP 服务器已安装并配置(安装指南
  2. Claude Code、Claude.ai 或 Claude API 访问权限
  3. .mcp.json 已配置 n8n-mcp 服务器
Terminal window
# 直接作为 Claude Code 插件安装
/plugin install czlonkowski/n8n-skills
Terminal window
# 添加为市场,然后浏览并安装
/plugin marketplace add czlonkowski/n8n-skills
# 然后浏览可用插件
/plugin install
# 从列表中选择 "n8n-mcp-skills"
Terminal window
# 1. 克隆此仓库
git clone https://github.com/czlonkowski/n8n-skills.git
# 2. 复制技能到你的 Claude Code 技能目录
cp -r n8n-skills/skills/* ~/.claude/skills/
# 3. 重新加载 Claude Code
# 技能将自动激活

用户:"构建并验证一个 webhook 到 Slack 的工作流"
激活的技能:
1. n8n 工作流模式 → 识别 webhook 处理模式
2. n8n MCP 工具专家 → 搜索 webhook 和 Slack 节点
3. n8n 节点配置 → 指导节点设置
4. n8n Code JavaScript → 帮助处理 webhook 数据
5. n8n 表达式语法 → 帮助数据映射
6. n8n 验证专家 → 验证最终工作流

非常适合使用 LangChain 节点构建智能自动化:

  • AI 连接类型指导
  • 内存和输出解析器配置
  • 流式传输模式约束

构建可靠的定时工作流:

  • 定时触发器配置
  • 数据库集成模式
  • 错误处理最佳实践

高效连接外部服务:

  • HTTP Request 节点配置
  • 认证模式
  • 响应处理

在从头构建之前,始终检查 n8n 的 2,709 个工作流模板:

"搜索 slack 通知的模板"
→ n8n MCP 工具专家激活
→ 返回精选的模板选项

使用多级验证方法:

级别配置文件使用场景
1minimal快速必填字段检查 (<100ms)
2runtime带修复的完整验证
3ai-friendlyAI 工作流平衡验证
4strict完整验证

许多 n8n 节点有条件属性:

// 示例:HTTP Request 节点
{
sendBody: true, // 设置这个...
contentType: "json" // ...需要这个
}
// ✅ 正确
{{ $json.data.value }}
{{ $node["Previous Node"].json.result }}
// ❌ 常见错误
{{ $json["body"]["data"] }} // 在 webhook 中,数据在 $json.body 下!

Q:为什么我的 webhook 工作流失败了?

Section titled “Q:为什么我的 webhook 工作流失败了?”

A:记住 webhook 数据在 $json.body 下,而不是直接在 $json 中。这是最常见的陷阱。

// ❌ 错误
{{ $json.userId }}
// ✅ 正确
{{ $json.body.userId }}

Q:如何在 Code 节点的 JS 和 Python 之间选择?

Section titled “Q:如何在 Code 节点的 JS 和 Python 之间选择?”

A:95% 的场景使用 JavaScript。Python 有关键限制:

  • 没有外部库(requests, pandas, numpy)
  • 只有标准库可用

A:使用适当的验证配置文件:

  • minimal 用于开发期间的快速检查
  • runtime 用于生产就绪验证
  • 检查自动清理行为

Q:我应该首先使用哪些 MCP 工具?

Section titled “Q:我应该首先使用哪些 MCP 工具?”

A:按照这个顺序:

  1. search_templates - 检查是否存在模板
  2. search_nodes - 查找所需节点
  3. get_node - 获取配置详情
  4. validate_node - 验证你的配置
  5. validate_workflow - 最终检查

方面使用 n8n-skills不使用
学习曲线AI 引导自行探索
错误处理主动模式试错法
最佳实践内置需要研究
验证多级自动化手动测试
特性n8nZapierMake
自托管
Code 节点✅ 完整 JS/Python有限有限
AI 集成✅ LangChain基础基础
开源
MCP 支持✅ 通过 n8n-mcp
工具用途
n8n-mcpn8n 的 MCP 服务器(必需)
n8n工作流自动化平台
Claude CodeAI 编程助手

  • 7 个互补技能协同工作
  • 525+ 个支持的 n8n 节点
  • 2,653+ 个用于示例的工作流模板
  • 10 个生产级测试的 Code 节点模式
  • 全面的错误目录和故障排除指南

n8n-skills 改变了你使用 Claude Code 构建 n8n 工作流的方式:

  1. 自动激活 - 检测到相关查询时技能自动触发
  2. 可组合设计 - 所有 7 个技能无缝协作
  3. 生产就绪模式 - 基于真实世界使用
  4. 验证优先 - 在部署前捕获错误

无论你是构建简单的 webhook 集成还是复杂的 AI agent 工作流,n8n-skills 都能提供你需要的指导来构建完美的自动化。


参考链接:


准备好提升你的 n8n 工作流开发了吗?今天就安装 n8n-skills,让 AI 引导你的自动化之旅!

BMAD V6 安装配置完全指南:项目目录安装最佳实践

BMAD (Build More, Architect Dreams) 是一套面向 AI 驱动开发的敏捷方法论框架,集成了多种 AI Agent、工作流和模块,支持 Claude Code、Codex、Cursor 等 18+ 种 IDE。本文将详细介绍 BMAD v6.0.0-alpha 的安装配置过程,并对每个配置选项进行深入解析。


核心建议:将 BMAD 安装到项目目录,而非用户主目录。

这样做的好处:

  • 隔离性:每个项目有独立的 BMAD 配置,互不干扰
  • 版本控制:项目级配置可纳入 Git 管理
  • 团队协作:团队成员 clone 项目即获得相同配置
  • 多项目支持:不同项目可使用不同版本的 BMAD

安装后的目录结构:

项目目录结构

BMAD 配置目录 .bmad 包含以下子模块:

BMAD 目录结构


确保已安装:

  • Node.js (推荐 v18+)
  • Bun 或 npm/npx
  • Claude Code 或其他支持的 IDE

在你的项目根目录下运行:

Terminal window
bunx bmad-method@alpha install

启动后你将看到 BMAD 的 ASCII Logo:

██████╗ ███╗ ███╗ █████╗ ██████╗ ™
██╔══██╗████╗ ████║██╔══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝
Build More, Architect Dreams v6.0.0-alpha.16

? Installation directory: /Users/vsai/WorkSpaces/vs/vs-ai-agents
? Install to this directory? Yes

选择建议:直接使用当前项目目录,回答 Yes 确认安装。


4.2 BMad Optimized Builder (BoMB) 模块配置

Section titled “4.2 BMad Optimized Builder (BoMB) 模块配置”
? Where do custom agents and workflows get stored? bmad-custom-src
? Where do custom modules get stored? bmad-custom-modules-src
配置项推荐值说明
Custom agents/workflowsbmad-custom-src存放自定义 Agent 和工作流
Custom modulesbmad-custom-modules-src存放自定义模块

? What is the name of your game project? vs-ai-agents
? Where should Sprint Artifacts be stored? docs/sprint-artifacts
? What is your game development experience level? Expert
? Which game development framework or engine? Unity, Unreal Engine, Godot, Custom / Other
配置项可选值说明
项目名称自定义你的游戏项目名称
Sprint Artifacts 目录docs/sprint-artifacts存放 stories、epics、临时上下文等
经验级别Beginner / Intermediate / Expert影响 Agent 解释概念的详细程度
游戏引擎Unity / Unreal / Godot / Custom选择你使用的游戏引擎

? What is the title of your project? vs-ai-agents
? What is your technical experience level? Expert - Deep technical knowledge
? Where should Sprint Artifacts be stored? docs/sprint-artifacts
? Enable Test Architect Playwright MCP capabilities? Yes
? Are you using playwright-utils in your project? Yes
配置项推荐值说明
项目标题你的项目名用于 Agent 上下文
技术经验级别按实际选择仅影响解释方式,不影响文档内容
Playwright MCPYes启用测试架构师的自动化测试能力
playwright-utils按需选择使用 @seontechnologies/playwright-utils 的高级功能

注意:技术经验级别只影响 Agent 与你交流时的措辞风格,文档内容始终保持简洁以优化 LLM 效率。


4.5 Codex CLI 提示安装位置(重要)

Section titled “4.5 Codex CLI 提示安装位置(重要)”

这是整个安装过程中最关键的选择之一:

? Where would you like to install Codex CLI prompts?
> Project-specific - Recommended for real work (requires CODEX_HOME=<project-dir>/.codex)
Global - Simple for single project (~/.codex/prompts)

强烈推荐:选择 Project-specific

方式优点缺点
Project-specific项目隔离、版本可控、团队共享需配置环境变量
Global配置简单只能服务单一项目,引用固定 .bmad 路径

选择 Project-specific 后,需要在 ~/.bashrc~/.zshrc 中添加:

Terminal window
alias codex='CODEX_HOME="$PWD/.codex" codex'

然后执行:

Terminal window
source ~/.bashrc # 或 source ~/.zshrc

这个 alias 会让 Codex CLI 自动使用当前工作目录下的 .codex 配置。


安装过程中你会看到各模块的安装进度:

✔ Core installed
✔ Dependencies resolved
✔ Module installed: bmb # BMad Optimized Builder
✔ Module installed: bmgd # BMad Game Development
✔ Module installed: bmm # BMad Method
✔ Module installed: cis # Creative Innovation Suite
✔ Module configurations generated
✔ Manifests generated: 61 workflows, 21 agents, 5 tasks, 1 tools, 88 files
✔ Configured 18 IDEs
模块全称功能
bmbBMad Optimized BuilderAgent 和工作流构建器
bmgdBMad Game Development游戏开发专用 Agent
bmmBMad Method敏捷开发核心方法论
cisCreative Innovation Suite创意创新工具套件
Compiled agents:
- bmad-master, bmad-builder
- game-architect, game-designer, game-dev, game-scrum-master
- analyst, architect, dev, pm, sm
- quick-flow-solo-dev, tea, tech-writer, ux-designer
- brainstorming-coach, creative-problem-solver
- design-thinking-coach, innovation-strategist
- presentation-master, storyteller

安装完成后,会提示配置 AgentVibes 语音合成:

🎙️ AgentVibes TTS Setup
AgentVibes provides voice synthesis for BMAD agents with:
• ElevenLabs AI (150+ premium voices)
• Piper TTS (50+ free voices)

如果选择安装,会自动配置:

  • 34 个 slash commands
  • TTS 脚本
  • 16 首背景音乐
  • 个性化模板
Terminal window
# 启动带 MCP 的 Claude Code
claude --mcp-config .mcp.json
# AgentVibes 命令
/agent-vibes:list # 查看所有可用声音
/agent-vibes:switch <name> # 切换声音
/agent-vibes:personality <style> # 设置个性风格

your-project/
├── .bmad/
│ ├── _cfg/ # 配置文件
│ ├── bmb/ # Builder 模块
│ ├── bmgd/ # 游戏开发模块
│ ├── bmm/ # Method 核心模块
│ ├── cis/ # 创意创新模块
│ ├── core/ # 核心 Agent
│ └── docs/ # 文档
├── .claude/ # Claude Code 配置
├── .codex/ # Codex CLI 配置(项目级安装)
├── bmad-custom-src/ # 自定义 Agent
├── bmad-custom-modules-src/ # 自定义模块
└── docs/
└── sprint-artifacts/ # Sprint 产物

安装完成后,可以通过以下方式验证:

Terminal window
claude --mcp-config .mcp.json

进入后尝试:

/bmad-bmm-agents-pm # 激活 PM Agent
Terminal window
ls .bmad/core/agents/
ls .bmad/bmm/agents/

Terminal window
bunx bmad-method@alpha install --update

每个项目独立运行安装命令即可,项目级配置互不影响。

确保已配置 CODEX_HOME 环境变量,并在项目目录下运行 codex


配置项推荐选择
安装位置项目目录(非 Home 目录)
Codex 安装Project-specific
技术级别按实际选择,不影响文档质量
Playwright MCP启用(如需自动化测试)
AgentVibes按需安装

BMAD 的项目级安装方式让你能够:

  • 在不同项目中使用不同配置
  • 将 AI Agent 配置纳入版本控制
  • 与团队成员共享一致的开发环境

开始使用 BMAD,让 AI Agent 成为你的敏捷开发伙伴!


Claude Chrome 扩展:普通人也可以用强大的 Claude Code 处理日常工作

Claude Chrome 浏览器扩展:Claude Code 的 ChatGPT 时刻来了

当 Claude Code 不再只是对话框,而是真正走进你的 Chrome 浏览器


引言:属于 Anthropic 的”ChatGPT 时刻”

Section titled “引言:属于 Anthropic 的”ChatGPT 时刻””

还记得 ChatGPT 刚发布时的震撼吗?那一刻,AI 从实验室走向了千家万户。

现在,Anthropic 正在创造属于自己的”ChatGPT 时刻”——不是通过聊天框,而是通过 Claude Chrome 扩展,让 AI 真正成为你浏览器里的”数字员工”。

Claude Chrome 扩展 把 Claude Code 的强大能力带给了普通用户——你不需要懂代码,不需要了解 API,只需要在浏览器里告诉 Claude 你想做什么,它就能帮你完成。

这不仅仅是一个浏览器插件,这是 AI 走进日常工作流程的重要一步。


通过 Claude Chrome 扩展,你可以直接在浏览器中告诉 Claude 你想做什么,它就能帮你完成。

Claude Chrome 扩展让 Claude 能够:

  • 导航网页:自动打开和浏览任何网站
  • 点击按钮:模拟用户操作,执行点击动作
  • 填写表单:自动填充各种表单和输入框
  • 后台执行任务:你可以继续做其他事,Claude 在后台帮你干活
  • 定时执行工作流:设置每日或每周的自动化任务

开发者可以在 Claude Code 中直接连接 Chrome,实现:

  • 在浏览器中测试和迭代代码
  • 自动化前端测试流程
  • 开发与调试的完美结合

Claude Chrome 扩展能够操作你每天使用的各种应用:

  • Google Drive 文件整理
  • 日历管理和会议准备
  • CRM 系统数据录入
  • 邮件清理和分类

Claude Chrome 扩展启动一个工作流程后,你可以继续做其他事:

  • Claude 会在后台默默完成任务
  • 不占用你的注意力
  • 结果自动同步

Claude Chrome 扩展设置周期性任务,无需手动触发:

  • 每日数据报告生成
  • 每周进度更新
  • 定期数据同步和备份

场景Claude Chrome 扩展 能做什么
分析仪表盘数据自动导航到分析平台,提取关键指标,整理成报告
整理 Google Drive扫描文件,创建文件夹结构,自动分类归档
日历准备读取日程,从邮件中提取上下文,标记需要准备的会议
跨站产品比较同时读取多个产品页面,统一格式对比,生成对比表
CRM 通话记录自动匹配会议参与者和联系人,生成活动日志
清理推广邮件扫描收件箱,识别营销邮件和新闻通讯,批量处理

Anthropic vs OpenAI:竞争格局正在改变

Section titled “Anthropic vs OpenAI:竞争格局正在改变”

Claude Chrome 扩展的发布,是 Anthropic 战略的重要一步。让我们看看最新的市场数据:

指标AnthropicOpenAI
2024年营收10亿美元37亿美元
2025年预测70亿美元+127亿美元
增长速度8000%(21个月)243%
指标ClaudeChatGPT
月活跃用户1890万8亿周活跃
企业客户占比70-80%-

差距正在快速缩小

  • 2024年初,OpenAI 的规模是 Anthropic 的 15倍
  • 2024年底,这个差距缩小到 5倍
  • Anthropic 的 ARR 已达到 OpenAI 的 40%

企业市场是 Anthropic 的强项

  • Claude 的消费端用户只有 ChatGPT 的 5%
  • 但 ARR 已达 40%,说明企业客户贡献巨大
  • 企业客户意味着更稳定的收入和更高的客单价

ChatGPT 的成功在于它让普通人与 AI 对话变得触手可及。Claude Chrome 扩展做的是同样的事,但方向不同:

  1. 从对话到行动:ChatGPT 让人们学会和 AI 对话,Claude 让 AI 真正帮你做事
  2. 从开发者到普通用户:Claude Code 的能力,现在人人都能用
  3. 从单点工具到全局助手:不再是一个网页应用,而是贯穿整个浏览器体验

这正是 Anthropic 需要的突破口——用差异化的产品体验,在 ChatGPT 主导的市场中开辟新赛道。


  1. 前往 Chrome 网上应用店 安装扩展

  1. 点击扩展图标,点击”打开 Claude” 开始使用
  2. 从简单任务开始,逐步探索更复杂的工作流

也可配合 Claude Code 或 Claude Desktop 使用

Claude Chrome 扩展虽然强大,但请注意:

  • 从信任的网站开始使用
  • 涉及财务、密码等敏感操作时要格外谨慎
  • 如发现异常行为,及时暂停并反馈

Claude Chrome 扩展代表了 AI 发展的新方向:

  • 不只是聊天,而是真正的任务执行
  • 不只是开发者工具,而是人人可用
  • 不只是功能叠加,而是工作流程的革命

对于 Anthropic 来说,这可能是改变市场格局的关键一步。虽然 ChatGPT 在用户数量上仍遥遥领先,但 Anthropic 正在用不同的方式追赶——更深入企业场景,更贴近实际工作。

AI 竞争的下半场,不再只看谁的对话更聪明,而是看谁能真正帮用户做事。


Claude Code + MCP:几分钟内自动发布文章到微信公众号

Claude Code MCP 微信自动化

想象一下,从一个简单的想法到一篇经过充分研究、专业撰写的文章发布到你的微信公众号——整个过程只需几分钟,而且不用离开终端?

这不是科幻小说。通过 Claude Codewenyan-mcp(模型上下文协议)服务器,你可以创建一个端到端的内容自动化流水线:

  • 使用网络搜索研究主题
  • 生成高质量的中英双语文章
  • 自动发布到微信草稿箱
  • 应用精美的格式主题

让我来展示具体的配置方法。


开始之前,请确保你有:

  1. Claude Code 已安装(推荐 v2.0+)
  2. Docker 在你的机器上运行
  3. 微信公众号 及其 API 凭据(AppID 和 AppSecret)

如果你还没有安装 Claude Code:

Terminal window
# 使用 npm
npm install -g @anthropic-ai/claude-code
# 或使用 Homebrew (macOS)
brew install claude-code

验证安装:

Terminal window
claude --version
# Claude Code v2.0.74

第二步:配置 wenyan-mcp 连接微信

Section titled “第二步:配置 wenyan-mcp 连接微信”

魔法发生在 MCP(模型上下文协议)——这是一个允许 Claude 与外部工具和服务交互的标准。

在你的 Claude Code MCP 设置中添加以下配置(~/.claude/settings.json 或项目级别的 .claude/settings.local.json):

{
"mcpServers": {
"wenyan-mcp": {
"name": "公众号助手",
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"-v",
"/你的图片路径:/mnt/host-downloads",
"-e",
"WECHAT_APP_ID=你的微信AppID",
"-e",
"WECHAT_APP_SECRET=你的微信AppSecret",
"-e",
"HOST_IMAGE_PATH=/你的图片路径",
"caol64/wenyan-mcp"
]
}
}
}

配置说明:

参数描述
WECHAT_APP_ID你的微信公众号 AppID
WECHAT_APP_SECRET你的微信公众号 AppSecret
HOST_IMAGE_PATH本地图片存储路径(用于封面图片)
-v 挂载将本地图片目录映射到容器

提示:微信公众平台获取你的 AppID 和 AppSecret。


这个工作流的关键是在 issue 文件 中定义你的任务。这告诉 Claude 你想要完成什么。

创建类似 engineering/00-issues/my-article-task.md 的文件:

---
slug: engineering/00-issues/my-article-task
---
# Issue: 撰写关于 [你的主题] 的博客
## 描述
需要涵盖的要点:
- 要点 1
- 要点 2
- 要点 3
## 要求
- 语言:简体中文、英文
- 使用 `wenyan-mcp` 发布(简体中文)
- 研究最新趋势和数据

现在是激动人心的部分。启动 Claude Code 并引用你的任务:

Terminal window
claude

然后在 Claude Code 提示符中:

Execute @engineering/00-issues/my-article-task.md

启动 Claude Code


Claude 在网上搜索相关的最新信息:

网络搜索

Claude 获取并分析多个来源以创建全面的内容:

浏览文章

Claude 生成文章并直接发布到你的微信草稿箱:

任务完成

打开你的微信公众号管理后台——文章已经在草稿箱中等待:

微信草稿箱

文章预览


wenyan-mcp 服务器支持多种精美主题:

主题风格
default简洁、极简
orangeheart温暖的橙色点缀
rainbow彩色标题
lapis专业蓝色
pie活泼设计
maize金色高亮
purple优雅紫色
phycat科技风格

发布时指定你喜欢的主题:

发布到微信时使用 orangeheart 主题

┌─────────────────────────────────────────────────────────────┐
│ 你的工作流 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 1. 定义任务 📝 在 .md 文件中创建任务 │
│ ↓ │
│ 2. 启动 Claude Code 💻 执行任务 │
│ ↓ │
│ 3. 自动研究 🔍 网络搜索与分析 │
│ ↓ │
│ 4. 生成内容 ✍️ 双语文章 │
│ ↓ │
│ 5. 发布到微信 📱 直接到草稿箱 │
│ │
└─────────────────────────────────────────────────────────────┘

在任务文件中指定语言:

语言:简体中文、英文

Claude 会自动生成两个版本。

在任务中引用本地图片:

## 截图
![步骤 1](path/to/screenshot1.png)

指定你想要保存博客文件的位置:

输出到:src/content/docs/blog/my-topic/

文章首先进入你的草稿箱——你总是有机会在最终发布给订阅者之前进行审核和编辑。


问题解决方案
Docker 连接失败确保 Docker Desktop 正在运行
微信 API 错误验证 AppID/AppSecret 是否正确
图片上传失败检查 HOST_IMAGE_PATH 是否正确映射
找不到 MCP 服务器运行 claude mcp list 验证配置

这个工作流将内容创作从繁琐的多步骤过程转变为流畅的自动化流水线。使用 Claude Code + wenyan-mcp,你可以:

  • 节省数小时的研究和写作时间
  • 保持一致性跨双语内容
  • 直接发布无需复制粘贴的繁琐操作
  • 专注于创意而不是执行细节

内容创作的未来已经到来——它就在你的终端里。


日报 - 2025-12-17 Accenture and Anthropic partnership

Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production

Section titled “Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production”
  • [[Forward Deployed Engineer]] / [[Reinvention Deployed Engineer]]

    • Approximately 30,000 Accenture professionals that will be trained on Claude, including forward deployed engineers (also known as “reinvention deployed engineers” at Accenture) who help embed Claude within client environments to scale enterprise AI adoption. This will comprise one of the largest ecosystems of Claude practitioners in the world. These teams combine Accenture’s AI, industry, and function expertise—along with deep partnerships with leading cloud providers—with Anthropic’s Claude models and Claude Code, plus its proven playbooks for regulated industries.
  • [[Methodology]]

    • measure value and drive large-scale AI adoption across their engineering organizations
      • quantify real productivity gains and ROI
      • workflow redesign for AI-first development teams
      • change management and training that keeps pace as AI evolves
  • [[Customization]]

    • Anthropic and Accenture will also co-invest in a Claude Center of Excellence inside Accenture, creating a dedicated environment for the joint design of new AI offerings tailored to specific enterprise needs, industry requirements, and regulatory contexts.

Source: Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production

Source: Spring Research

Anthropic 法务把审合同这件苦差事,用 Claude 玩成了“工作流艺术”


昨天 Anthropic 官网上发了一篇新文章,讲他们法务团队怎么用 Claude / Claude Code,把原来要几天的活压缩到几个小时,而且全程“人始终在环中”

一、连顶级 AI 公司,法务也在被“体力活”榨干

Section titled “一、连顶级 AI 公司,法务也在被“体力活”榨干”

Anthropic 的产品律师 Mark 描述自己之前的日常:

  • 回各种合规文档、客户问卷
  • 改服务条款和隐私政策
  • 帮市场部审博客、邮件、营销素材
  • 红线合同、一条条对比版本
  • 写一大堆隐私影响评估(PIA)

这些活有几个特点:

重复、格式差不多、出错成本高、又极其浪费脑力。

他甚至说,很多事情会拖到一天最后去做,因为很占时间,但完全用不上自己“最好的那部分大脑”。

这听着是不是很眼熟? 只要你在公司里做过一点法务、合规、风控、运营、客服,其实都在经历类似的痛。

Anthropic 法务团队做了一件很“工程师”的事:

他们拉了个会,专门在白板上写—— “什么事最耗精力?什么最重复?哪些活根本不配占我们这么多时间?”

答案出来之后,他们没急着谈“AI 能做什么”,而是只盯一个问题:

哪些事情,我们最想再也不用亲手做一遍?


二、法务工作流怎么拆:4 个真实场景

Section titled “二、法务工作流怎么拆:4 个真实场景”

Anthropic 法务团队花了几个月,把痛点一点点变成了“可复制工作流”。

1)营销素材自助审核:先过 AI 这一关

Section titled “1)营销素材自助审核:先过 AI 这一关”

以前的流程,你肯定见过:

市场部在发布前一晚,把落地页、Push、海报一股脑甩给法务: “帮忙今天之内过一下,明天要上线。”

法务只好:打开文档 → 从头看一遍 → 留一堆 comment → 来回几轮修改。 经常一拖就是几天。

Anthropic 的改造方式很简单,但很狠:

他们在 Slack 里做了一个**“营销素材自查工具”**(Self-Review Tool):

  • 市场同学把文案粘进去

  • Claude 调用一个专门的 “法务 Skill 文件”

    • 里面是:历史审核意见、常见风险点、团队约定的判断标准
  • Claude 自动标出:

    • 夸大宣传?
    • 数据是否有来源?
    • 是否侵犯肖像权、名誉权?
    • 有没有暗示不该承诺的东西?
  • 每个问题打风险等级:低 / 中 / 高

  • 顺带给出“修改建议版本”

只有过了这一关,才会真的创建工单,进法务队列。

StartupHub 的报道里提到,这一套下来,原来要几天的审核,现在可以压缩到几个小时,而且 Slack 里还能自动生成一条总结消息,帮法务把风险点捋清楚。

这件事本质是:

把“问诊前的表格”和“基础体检”交给 AI 做, 真正的诊断,还是医生说了算。


2)兼职 / 外部活动审批:AI 先问清楚细节

Section titled “2)兼职 / 外部活动审批:AI 先问清楚细节”

很多公司都有类似流程:

员工想去接个顾问、搞个副业、去非营利机构当个董事,都要走“外部商业活动审批”。

以前的做法:法务要一对一问清楚背景、利益冲突、时间占用、竞业风险……来回问半天。

现在 Anthropic 是这么玩:

  • 员工先填一个结构化表单
  • Claude 读完表单内容
  • 如果信息不够,它会自动追问补充问题
  • 再根据公司规则,给出一个建议结论 + 风险说明
  • 最后进法务队列,由律师确认通过与否

律师们现在主要盯两类:

  • 真·疑难杂症
  • 风险比较高的边界情况

把“90% 标准流程 + 10% 极值判断”拆开了。


3)隐私影响评估(PIA):让 AI 学会“写模板”

Section titled “3)隐私影响评估(PIA):让 AI 学会“写模板””

隐私类项目,每上一个新功能,就要重新写一份 PIA。

痛点在于:

  • 模板类似,但每次都得重写
  • 既要贴合具体场景,又不能漏掉必写模块

Anthropic 的做法有两步:

  1. 用 MCP(Model Context Protocol)把 Claude 接入一个 Google Drive 文件夹

    • 里面是他们历史所有 PIA 文档
  2. 给 Claude 配一个“写 PIA 的 Skill”,告诉它:

    • 文档结构
    • 每一块重点关注什么
    • 公司特别在意的隐私点

律师只要说一句:

“根据之前这些案例,帮我写一个这次新功能的 PIA 草稿。”

Claude 会:

  • 先理解历次 PIA 的风格
  • 再按格式写出初稿
  • 把历史关注点迁移到新场景

律师做的工作,从“从 0 写一遍”,变成“改一篇已经 80 分的稿子”。


4)Legal 玩出了“摩斯密码灯”,但重点在于“门槛降到了人话”

Section titled “4)Legal 玩出了“摩斯密码灯”,但重点在于“门槛降到了人话””

有个细节挺好玩:

Mark 用 Claude Code 做了个“法律台灯”,能闪烁摩斯密码来收发信息——纯属个人兴趣项目。

但这个故事背后的点很重要:

连一个不会写代码的律师,都能靠“跟 AI 说人话”,做出一个完整的小应用。

对企业来说,这意味着:

  • 法务、合规、运营这些本来“不会写代码的人”,可以自己动手搭工作流
  • 不用一上来就排工程资源、立大项目
  • 他们只要把规则讲清楚,就能让 AI 帮忙落地成工具

这就从根上改变了: “只有工程师才能做工具”这件事。


三、这套法务工作流的“底层积木”

Section titled “三、这套法务工作流的“底层积木””

Anthropic 法务这套体系背后,其实就三块积木:

1)从“技术能做什么”换成“我不想干什么”

Section titled “1)从“技术能做什么”换成“我不想干什么””

Mark 给的建议很直接:

不要上来问“AI 能干嘛”, 先问“我们最想摆脱的活是什么”。

他们就是按这个思路,白板上写:

  • 哪些是重复文书
  • 哪些是每天都在做的判断
  • 哪些是完全可以标准化的流程

确认完,再看:

  • 能不能先让 AI 做第一轮
  • 把人类的时间保留给争议点、例外情况、战略判断

2)Skills:把团队经验打包成“可调用资产”

Section titled “2)Skills:把团队经验打包成“可调用资产””

官方博客里把 Skills 定义成:一份文件,里面写着指令、脚本、参考资料,让 Claude 在做某个任务时能“变成行家”

对法务来说,Skills 用在两件事:

  • 保证规则统一

    • 营销审核 Skill:把“团队历史审核意见”固化进去
    • 不同领域有不同 Skill:雇佣、商业、隐私、公司治理……
  • 保持文风统一

    • Mark 让 Claude 读了自己 10 篇备忘录
    • 让它学会自己的写法、结构、口吻
    • 以后让 Claude 起草 memo,可以直接“写出他的风格”

你可以把 Skill 想象成:

团队里那位资深律师的“外挂记忆卡”。

用的时候插上,不用的时候拔掉。


3)MCP:把分散的信息接成一张“法务知识网”

Section titled “3)MCP:把分散的信息接成一张“法务知识网””

另一个关键积木是 MCP(Model Context Protocol)。

Anthropic 法务用它把 Claude 接到了:

  • Google Drive:历史合同、PIA、模板、政策
  • JIRA:需求与工单
  • Slack:沟通记录
  • 日历:关键会议、审批节点

这样做有两个效果:

  • AI 不再“瞎编”,因为它有你自己的资料可查
  • 每个工作流,都能拿到刚好够用的上下文

你可以简单理解:

MCP = 给 AI 接上“公司内部网”。

Skills = 教它“怎么用这些资料办事”。


四、整套方案最关键的一条:人绝对不能缺席

Section titled “四、整套方案最关键的一条:人绝对不能缺席”

无论是 Anthropic 自己的博客,还是 StartupHub 的报道,都在反复强调一句话:“法务一定要在人在环中。”

他们的实际做法是:

  • AI 负责:

    • 首轮审稿、找问题
    • 初步打风险等级
    • 草拟修改建议和文档
  • 律师负责:

    • 核查事实与引用
    • 判断“这个风险公司能不能接受”
    • 对外最后拍板

Anthropic 明说了:

AI 会幻觉,这是客观事实。

所以他们的设计就是:AI 做“加速器”,人做“刹车 + 方向盘”。

对任何想在公司里推 AI 的人来说,这句话很有用:

你不是在用 AI 替代法务, 你是在用 AI 让法务不再做“改格式、找错别字”的机器。


五、这套玩法,国内团队怎么“抄作业”?

Section titled “五、这套玩法,国内团队怎么“抄作业”?”

说完 Anthropic,我们来聊“怎么抄”。 不管你现在用的是 Claude、ChatGPT、DeepSeek 还是自家的模型,其实都能借这套思路。

你可以这样开局:

1)列出你团队的“法务地狱清单”

Section titled “1)列出你团队的“法务地狱清单””

找一天,拉上法务 / 合规 / 市场 / 产品:

  • 写下最不想亲自再做一百遍的任务
  • 按“重复度 × 风险可控度”来排优先级
  • 选 1~2 个“现在就可以试水”的

典型候选:

  • 营销素材初审
  • 合同标准条款比对
  • 数据保护、隐私类模板
  • 标准问卷、合规 Q&A

2)先搭“人 + AI 双层流程”,再谈自动化

Section titled “2)先搭“人 + AI 双层流程”,再谈自动化”

一上来就做“端到端自动审批”,往往会死在风控和信任上。

更稳的方式是:

  • 让 AI 做“内部预审 + 辅助草稿”

  • 真正的决策流程不变

  • 用 1~2 个月,验证:

    • 它有没有明显错误
    • 速度是不是真的提升
    • 团队有没有觉得更好用

过了这一关,再看要不要升级成:

  • 自助工具
  • 与内部系统打通的工作流
  • 加入模板、Skills、团队规范

3)把“规则”和“风格”慢慢喂给 AI

Section titled “3)把“规则”和“风格”慢慢喂给 AI”

可以学 Anthropic 的两步法:

  • 规则

    • 整理一份“本公司法务审核 checklist”
    • 例如:不可使用的词、必加免责声明、必须核实的数据项
    • 编成一个长期维护的“AI 提示文档”或 Skill
  • 风格

    • 丢给 AI 你们团队写得比较满意的几份合同评审意见、备忘录
    • 让它总结:常见结构、表达习惯、措辞偏好
    • 以后生成草稿时,都要求“按这个风格写”

慢慢地,你会得到一个:

会按你们自己的习惯做事的 AI 小同事。


做这类自动化,到底值不值? Anthropic 在另一份《How Anthropic teams use Claude Code》文档中提到,他们内部很多团队都用这套方式来评估效率提升,而法务是收益特别明显的一块。

你可以简单量化:

  • 每条营销素材的平均审核时间
  • 每份合同从“发给法务”到“给出意见”的周期
  • 每个律师每周花在重复文书上的小时数

做个前后对比,很容易说服老板继续投资源。


用一句话概括 Anthropic 法务这次的实践:

用 AI 做“懂规则的初级助理”, 把资深律师从体力活里解放出来,去做真正需要判断力的事。

这件事对所有“又懂业务又懂一点点 AI 的人”来说,都是一个巨大的机会:

  • 你可以成为那个把团队经验沉淀成 Skills 的人
  • 你可以搭起第一个“AI + 法务工作流”
  • 你可以把 AI 从“聊天玩具”,变成真正的“流程基础设施”

我很好奇:

你所在的团队,有哪些事,其实完全可以照着 Anthropic 这套思路,交给 AI 打底?

给 Claude 装上「长期记忆」:claude-mem 实战体验与使用建议

claude-mem 这玩意儿,能让 Claude 真正「记住你」


你有没有这种感受:

每次打开 Claude / ChatGPT 写代码, 都要从头给它讲一遍项目背景:

「我在做个后台管理系统,技术栈是……」 「上次我们做到用户登录,这次要加的是……」

讲着讲着,人都烦了。

模型不是真的笨,只是没记忆。

今天这篇,就带你看看 GitHub 上一个很有意思的小项目: claude-mem——给 Claude Code 装上「长期记忆」的大脑。


一句话版:

它会自动记录你在 Claude Code 里的操作,自己总结、压缩, 下次再开同一个项目,Claude 会「主动想起」之前的上下文。

更细一点说,它是:

  • 一个 Claude Code 插件
  • 会自动捕获:你的指令、工具调用、读写文件等操作
  • 后台用 Claude 的 Agent SDK 做总结、提炼要点
  • 存进本地数据库和向量库,支持全文 + 语义检索
  • 下次你再开 Claude Code,它会把「最相关」的历史内容 当作上下文自动塞回新对话里

所以体验上就是:

你继续写代码,Claude 变成了那个 「对项目背景比你还熟」的搭档。


二、它是怎么帮 Claude「开挂记忆」的?

Section titled “二、它是怎么帮 Claude「开挂记忆」的?”

官方 README 里画了一个很清晰的流程图,我给你翻译成人话版:

1)会话开始:先喂点「最近发生的事」

Section titled “1)会话开始:先喂点「最近发生的事」”

每次你在 Claude Code 里开一个新 session, claude-mem 会先从数据库里挖出「最近的关键信息」, 整理成一段简短上下文, 自动注入到这次对话开头

就好像跟朋友见面前,先在脑子里过一遍:

「上次我们聊到登录注册,中间踩了哪些坑?」

2)你在写代码:它在后台默默记笔记

Section titled “2)你在写代码:它在后台默默记笔记”

在整个开发过程中,它会持续记录:

  • 你发给 Claude 的重要指令
  • Claude 调用工具时的「观察结果」(读了哪个文件、写了什么)
  • 一些关键的中间过程

这些原始信息不会直接拿来当上下文那样粗暴重放, 而是先交给 Worker Service,用 Claude 自己的 Agent SDK 来做总结:

「这次 session 里有哪些值得记住的‘经验’?」

比如:

  • 我们决定弃用某个第三方库
  • 重构了某个模块的接口设计
  • 修了一个阴间 Bug,并总结了成因

3)会话结束:生成一份「学习笔记」

Section titled “3)会话结束:生成一份「学习笔记」”

session 结束时,它会做一件事:

把这整个会话浓缩成一份「项目变更日志 + 决策摘要」。

然后存进本地 SQLite(支持全文搜索), 同时也写入 Chroma 这类向量数据库,方便走语义检索。

下一次 Claude 要查历史,就不用「全量翻旧账」, 而是通过智能搜索 + 分层展开(progressive disclosure) 把少量但关键的上下文塞回对话中。


三、对开发者来说,爽点在哪?

Section titled “三、对开发者来说,爽点在哪?”

1)长周期项目:不用每次都复盘一遍

Section titled “1)长周期项目:不用每次都复盘一遍”

想象一个真实场景。

你在做一个 SaaS 管理后台,跨度 3 个月。 中间还要被各种会议、需求变更打断。

没装 claude-mem 的时候,每次回到项目是这样的:

  • 先翻 Git log 和文档
  • 再用大段提示把背景讲一遍给 Claude
  • Claude 才慢慢进入状态

装上 claude-mem 之后:

  • 新 session 一开,Claude 自己就知道:

    • 项目在做什么
    • 最近改了哪些模块
    • 哪些坑已经踩过、别再踩第二次

你只需要说一句:

「继续上次我们做到的权限管理,把导出功能补完。」

Claude 就能「接得上话」,而不是一脸懵逼。

2)mem-search:给你一个「项目时光机」

Section titled “2)mem-search:给你一个「项目时光机」”

claude-mem 还内置了一个很有意思的技能:mem-search

你可以直接用自然语言问它:

  • 「帮我找下我们之前是怎么设计登录接口的?」
  • 「之前那个 file upload 的 Bug,我们当时是怎么修的?」

和普通的「在代码里搜关键词」不一样, mem-search 查的是对话 + 工具调用 + 总结后的知识, 还能按「分层展开」控制注入多少上下文,顺便省 token。

简单说:

它帮你把「我记得我们好像讨论过这个」 变成可以随时调出的「有据可查」。

3)Web UI:实时看 Claude 在「想什么」

Section titled “3)Web UI:实时看 Claude 在「想什么」”

项目还提供了一个 Web Viewer,默认跑在 http://localhost:37777 上:

  • 能实时看到当前 session 的「记忆流」

  • 支持搜索历史

  • 方便你检查:到底记录了什么、会注入什么

这对有安全洁癖的团队,很重要。 你可以肉眼确认:有没有把不该记的东西写进数据库。

如果你有一些敏感内容(比如公司内部系统、密钥、用户数据), 可以在对话中用 <private> 包裹, claude-mem 会把这部分内容从持久化存储中排除掉。

大模型继续能用这些信息在当前 session 里思考, 但不会被写进长期记忆,降低泄漏风险。

对需要合规的企业用户,很加分。


作者已经把安装流程做得非常贴近 Claude Code 用户习惯。

在 Claude Code 的终端里,新开一个 session,然后输入两行命令:

/plugin marketplace add thedotmack/claude-mem
/plugin install claude-mem

重启一下 Claude Code,就开始自动工作了。

更深一点的玩法(可选):

  • 跑本地 worker service 和 Web UI
  • 调整配置(哪些内容要记录、token 使用策略等)
  • 自己改配置、对接更复杂的开发环境

对一般开发者来说,先用默认配置跑起来就够爽了。 真香之后,再慢慢研究文档里的「Context Engineering」「Progressive Disclosure」这些高级玩法。


我觉得这几个群体用起来会最有感觉:

  • 长周期项目的主力开发 一年只做一个大项目的那种人,会非常爱它。

  • 用 Claude Code 当主力 IDE 辅助的同学 每天都在和 AI 结对编程,记忆收益特别明显。

  • 喜欢做 Side Project / 开源项目 中间经常停一两周,再回来还能「无缝接续」。

  • 只是偶尔让 Claude 帮你写个小脚本
  • 单文件的小实验、一次性小工具

这种强度下,claude-mem 的长期记忆优势不明显, 装不装完全看心情。

  • 需要你愿意在本地跑一个常驻服务和数据库
  • 团队使用时,还是要评估好数据存储和访问规范
  • 目前是社区项目,升级和兼容性需要自己多留意

不过从 star 数和活跃度来看,社区热度还不错, 有问题也可以直接去 Issues 里交流。


站在「效率 / 钱」的角度,claude-mem 带来的收益主要有几类:

  • 节省时间 不用一遍遍重复项目背景、翻历史对话。

  • 减少错误 避免重复踩过的坑,记得之前做过的决策。

  • 更稳的协作 项目暂停、成员变动后,历史脉络更好恢复。

如果你已经在为 Claude / GPT 付费,其实每次「重新解释项目」 也是在烧 token。claude-mem 本质上是在帮你:

把「反复解释」变成「一次解释,多次复用」。


总结:让 AI 成为「记性很好的搭档」

Section titled “总结:让 AI 成为「记性很好的搭档」”

对很多人来说,AI 现在已经是日常开发里不可或缺的帮手。 但没有记忆的 AI,更像是一个短期实习生

  • 当下干活没问题
  • 但对项目长期价值有限

像 claude-mem 这种「记忆外挂」, 就是在把它升级成一个真正懂项目上下文的长期队友

如果你已经在用 Claude Code 写项目, 可以找个周末腾一个小时,装上试试:

也许你会突然意识到—— 原来大模型真正的上限,不在「它能写多少代码」, 而在「它能记住多少你们一起走过的路」。


你现在是怎么让 AI「记住项目」的?

  • 靠手写文档?
  • 靠每次复制一大段提示词?
  • 还是干脆放弃,能记多少算多少?

欢迎在评论区聊聊你的做法, 也可以分享一下你会把 claude-mem 用在什么项目上。

Anthropic 内部员工 AI 开发调查:前端最香,架构最难交给 AI

引言:AI 真的让工程师更高效了吗?

Section titled “引言:AI 真的让工程师更高效了吗?”

这一年,身边做开发的朋友,都在问同一个问题:

“我天天在用 Claude / Copilot,但到底值不值?有没有被厂商忽悠?”

刚好,Anthropic 自己把内部 132 名工程师、研究员的真实使用情况,做成了一份很详细的调查和访谈,外加好几张数据图。

这就像是AI 厂商给自己做了一次体检报告。 谁在真香,谁在踩坑,数据都写在脸上了。

今天就带你用“打工人视角”,拆一下这份报告,顺便聊聊: 在软件工程里,哪些任务用 AI ROI 最高,哪些地方别急着全交给模型。


一、这是一份什么样的内部调查?

Section titled “一、这是一份什么样的内部调查?”

Anthropic 找了 132 名工程师和研究员,问了他们一堆非常具体的问题:

  • 你每天有多少工作是和 Claude 一起做的?
  • 主要用它干什么?调试、写新功能、重构、写测试、写文档,还是做设计和规划?
  • 对每一类任务,用 Claude 后花的时间变多还是变少?
  • 产出的量(代码、文档、可交付成果)变多还是变少?

他们还做了对比:

  • 一年前,员工觉得自己大概有 28% 的工作在用 Claude,自报生产力 +20%。
  • 到了现在,这个数字涨到 59% 的工作用 Claude,平均自报生产力 +50%,其中大约 14% 的“重度玩家”认为自己提高 超过 100%

另外一条独立研究也挺猛:Anthropic 用 10 万条真实对话估算,中位任务的完成时间减少了 80% 左右

听起来很夸张,但工程师都懂——自报生产力要打个折。 所以更有价值的是:按任务细分,哪些地方真的收益大,哪些地方水分多。


二、整体现象:时间只省一点点,产出涨得很猛

Section titled “二、整体现象:时间只省一点点,产出涨得很猛”

那张你看到的 Figure 就是核心结论之一:

  • 左边:用 Claude 后,做某类任务 花的时间 是减少、没变,还是增加
  • 右边:在同样时间里,产出的工作量 是变多了多少

把所有任务拉开来看,有两个有意思的模式:

  1. 大多数任务,时间是略微下降的

    • 很多点落在 “-1 左右”(轻微减少),
    • 意味着:并不是每个人都节省了一半时间,更多是省一点点
  2. 但产出量普遍涨得更明显

    • 右图里,大部分点在 “+1 ~ +2” 区间,
    • 说明即便时间只省了一点,写出来的东西多很多

还有一个隐藏细节: 原始数据里,有一小撮人,在某些任务上 时间反而变多了

访谈里,他们的解释特别真实:

  • 要帮 Claude 收拾它写出来的烂摊子,重搞调试和清理
  • 要花精力理解自己没写过的代码
  • 或者因为有了 Claude,干脆做得更细、更认真,比如更多测试、更多探索

一句话总结:

时间并不是凭空消失,而是被“再投资”到了更多工作上。


三、从 ROI 看任务类型:前端最香,设计和 Infra 最吃亏

Section titled “三、从 ROI 看任务类型:前端最香,设计和 Infra 最吃亏”

结合图里的分布,再对照我自己的使用体验,能看到一个很清晰的 ROI 排名。

1)ROI 天花板:前端、新功能、调试、测试、文档

Section titled “1)ROI 天花板:前端、新功能、调试、测试、文档”

这些任务,有几个共同点:

  • 结果非常容易验证

    • 前端:跑起来一看 UI 就知道有没有问题
    • 调试:复现 bug、跑测试,要么过要么挂
    • 测试和文档:格式、覆盖范围一下子就能看出来
  • 任务边界比较清晰

    • “把这个组件改成响应式布局”
    • “为这段代码补一组单测”
    • “帮我写一段 README,目标读者是新同事”

这类工作里,人类最烦的是: 机械、重复、写起来枯燥,但好不好一眼就能看出来。

这刚好踩中了 Anthropic 员工总结的一个关键词:

“我更愿意把容易验收的任务丢给 Claude。”

报告还提到,工程师越来越常用 Claude 来做前端可视化、实现 UI、做小工具, 甚至让后端工程师也敢去写前端,把自己变成“准全栈”。

从 ROI 角度看,这些任务就像短平快项目

  • 模型干活
  • 人类验收
  • 出问题直接回滚重来
  • 新手也可以监督

前端在这波里是明显受益者——画面、交互、样式都能快速迭代, 你只要盯着用户体验本身,而不是纠结 CSS 细节。

2)ROI 较低:设计 & 规划、Infrastructure / DevOps

Section titled “2)ROI 较低:设计 & 规划、Infrastructure / DevOps”

再看图的另一端:高层设计、系统规划、Infra / DevOps

从 Anthropic 的报告里可以看到两个现象:

  • 员工明确表示:

    • “我通常保留高层思考和设计在自己手里,把实现、调试类任务交给 Claude。”
    • 设计和规划类任务,在问卷里生产力提升最小
  • Infra 和 DevOps 相关任务,用得没那么频繁,时间和产出提升也比较有限。

这就和我们的“软件工程常识”高度吻合:

越依赖经验、上下文、品味、组织策略的工作,越难完全交给 AI。

比如设计一个新系统架构,你要考虑:

  • 五年后的业务形态
  • 团队现在的技术栈
  • 谁来维护、谁来值班
  • 成本预算、合规、安全

Claude 可以帮你:

  • 生成几版架构图
  • 帮你列风险清单和 trade-off
  • 写设计文档初稿

但真正拍板的人,还是你。 AI 在这里更像一个聪明顾问,不是拍板的 CTO

Infra / DevOps 也是一样:

  • 真正困难的,是

    • 熟悉公司复杂的网络拓扑
    • 一堆历史债务的脚本和配置
    • 出事时谁负责背锅
  • AI 可以帮你写脚本、解释 log、起草 runbook

  • 很难一个命令直接上生产,不看就执行

所以从 ROI 来看:

前端、新功能、调试、测试、文档 → 投入少、收益快

设计、规划、Infra → 价值高,但 AI 很难“直接帮你省大量时间”


四、可验证性:决定 AI 效益的那条“分水岭”

Section titled “四、可验证性:决定 AI 效益的那条“分水岭””

Anthropic 在访谈里,总结了一套很实用的“委托原则”:工程师更愿意把这些任务交给 Claude:

  • 容易验证
  • 复杂度不高或边界清晰
  • 质量要求没那么极端严苛(比如一次性的 debug 脚本)
  • 重复、无聊,但又不能不做的活

这套原则其实可以抽象成一个词:可验证性

你可以这样想象:

  1. 有单测 / 有 demo 的任务,适合 AI 冲锋

    • 比如前端页面、后端接口、数据处理脚本
    • 写完就跑一遍,看结果是不是在预期范围内
  2. 靠“味道”和“判断”的任务,要人类把关

    • 例如系统设计、体验设计、安全策略
    • 很多时候没有标准答案,只有 trade-off
  3. 局部问题 vs 全局问题

    • 改一个组件、写一段文档,是局部问题
    • 规划跨团队的技术路线,是全局问题

Claude 在“局部、可验证”的任务上 ROI 爆表, 在“全局、模糊”的任务上,更适合帮你想思路、列清单、做对比, 而不是直接给最终方案。


五、给普通团队的落地建议:别急着让 AI 当架构师

Section titled “五、给普通团队的落地建议:别急着让 AI 当架构师”

如果你在带一个工程团队,或者自己就是个人开发者,可以参考 Anthropic 的玩法,给 AI 划一条清晰的“势力范围”。

1)先把 AI 当成“苦力 + 记录员”

Section titled “1)先把 AI 当成“苦力 + 记录员””

优先让 Claude 负责这些:

  • 调试相关

    • 让它帮你定位栈追踪、解释报错、重现 bug
    • 写临时脚本做验证
  • 测试 & 文档 & 注释

    • 自动补单测、生成 mock
    • 总结 PR 变更、生成 README、接口说明
  • 前端和可视化

    • 生成页面骨架、样式方案
    • 做内部工具、仪表盘、数据可视化
  • 小型重构 & “去纸割”

    • 帮你把一坨屎山拆成函数
    • 改变量名、提取公共逻辑

这些地方,你只要多写几个验收条件, 效果会远好于让它“从 0 思考一个架构”。

2)设计和规划:把 AI 当头脑风暴伙伴

Section titled “2)设计和规划:把 AI 当头脑风暴伙伴”

在高层设计上,Claude 更适合这么用:

  • 让它列出多种架构方案和优缺点
  • 帮你写 RFC / 技术方案初稿
  • 模拟不同角色视角的 review(比如“安全团队会问什么问题?”)

决策权取舍最终署名,还是掌握在你手里。

3)Infra / DevOps:脚本和说明书可以交,生产命令要自己敲

Section titled “3)Infra / DevOps:脚本和说明书可以交,生产命令要自己敲”

在 Infra 场景里,可以放心交给 AI 的,是这些东西:

  • 解释复杂的 Kubernetes YAML、Terraform 配置
  • 写 CI/CD pipeline 模板
  • 帮你阅读日志,先做一版归因分析

真正执行到生产环境的命令、变更计划,需要:

  • 人类自己再看一遍
  • 多一道同事 review
  • 必要时先在 staging 走一遍流程

可以给团队定一个简单规则:

“凡是直接影响生产的命令,必须由人类亲手改、亲手敲。”

4)给自己做一份“AI 任务地图”

Section titled “4)给自己做一份“AI 任务地图””

结合 Anthropic 的做法,你完全可以给团队画一张表:

  • 行:Debug / 前端 / 新功能 / 测试 / 文档 / 重构 / 设计 / Infra …

  • 列:

    • 是否交给 AI 做初稿?
    • 是否允许 AI 独立完成?
    • 最终需要谁 review?

这张表就是你们自己的 “AI 使用策略”, 可以每季度调整一次,等模型升级了,再把更多任务划进来。


六、未来工程师的样子:更全栈,也更需要判断力

Section titled “六、未来工程师的样子:更全栈,也更需要判断力”

调查里,有一条我很有共鸣:

  • 员工估计,27% 的 Claude 辅助工作,在没有 AI 的情况下根本不会做, 比如更多的重构、更多仪表盘、更多 internal 工具。

也就是说,Claude 不只是帮你“把本来的工作做快一点”, 而是让你多做了一堆原本“来不及做”的好东西

同时,很多人也在担心:

  • 自己写代码的时间变少了,会不会手生
  • 监督 AI 需要经验,可经验又在一点点被 AI 抢走。

这就是所谓的“监督悖论”:

用好 AI 需要更强的判断力,而判断力本身又需要亲自下场练级。

所以比较健康的做法,可能是:

  • 在 ROI 高的任务里大胆用 AI 提速
  • 但给自己保留一部分“手写训练场”
  • 把 AI 当成你升级技能的加速器,而不是替代品

长期看,工程师会变成怎样?

  • 更像 产品 + 架构 + 项目经理 + AI 驯兽师 的混合体
  • 更关注“要做什么”和“为什么做”, 而不是“这一行代码具体写成什么样”。

结语:把 AI 用对地方,你就是团队里的“生产力套利者”

Section titled “结语:把 AI 用对地方,你就是团队里的“生产力套利者””

Anthropic 的这份内部调查,其实给我们提供了一个很清晰的思路:

  • 别期待 AI 在所有任务上都 10 倍提速
  • 真正的差别在于:你敢不敢、会不会挑对任务去交给它

如果你是工程师、技术负责人, 现在就可以拿出纸和笔,列一个自己的任务清单:

  • 哪些事容易验证重复又枯燥,可以马上交给 Claude?
  • 哪些事涉及高层设计和团队策略,只用它做“智囊团”,而不是“代写”?

把这张“AI 任务地图”画出来,你在团队里的生产力,就已经领先一大截了。

从探索到修复:Claude Code 如何思考与推理,排查 SQLAlchemy 事务回滚问题

这是一篇基于一次真实的生产问题排查记录而整理的技术博客,焦于 Claude Code 如何“探索 → 思考 → 推理”,快速定位根因并实施最小可行修复,同时给出进一步的结构性优化建议。

问题发生在 mailflow 服务的生产环境,核心报错如下:

This Session's transaction has been rolled back due to a previous exception during flush.
To begin a new transaction with this Session, first issue Session.rollback().
Original exception was: (sqlalchemy.exc.InvalidRequestError) Can't reconnect until invalid transaction is rolled back

对应日志上下文显示,错误发生在向 emails 表执行 INSERT 时,随后一系列数据库操作进入“级联失败”状态。

  • 场景:mailflow 在处理入站邮件(解析、生成记录、转发、移动 IMAP 文件夹)时,偶发整条处理链条失败。
  • 目标:
    • 明确事务失败的首要触发点;
    • 解释为何后续所有 DB 操作都报相同错误;
    • 以最小风险改动尽快恢复处理能力;
    • 提供结构性改进建议,提升系统鲁棒性。

基于 Claude Code 的代码搜索与上下文关联能力,我们按“从症状到根因”的顺序展开:

  • 锁定日志与触发点

    • 从日志可见异常由 SQLAlchemy 会话(Session)状态所致:之前事务失败时未进行 rollback(),当前 Session 进入 invalid 状态。
  • 关键代码路径定位

    • mailflow/app/db.py:连接与会话工厂定义。
    • mailflow/app/mail.py:实际的业务主流程、创建记录、提交事务的位置。
    • mailflow/app/utils.py:日志与告警(微信)入口 notify_and_log
  • 证据一:全局(模块级)会话

    • mail.py 顶部存在:
      session = session_factory() # 模块级全局 Session
    • 一旦某处 flush/commit 失败,该全局 Session 便进入 invalid 状态,后续所有依赖它的 DB 操作都会失败,直至显式 session.rollback()
  • 证据二:缺少异常处理与回滚

    • 多处 session.commit() 调用无 try/except/rollback 保护:
      • 创建邮件记录(create_mail
      • 建立邮件与附件关联(_relation_attachment_and_mail
      • 处理请求结果并更新状态(deal_requests_result
      • 主流程 process_mail 的大段逻辑

结论:首个失败的 DB 操作将全局 Session 置为 invalid,因缺少 rollback(),其后路径上的所有提交与查询都会以相同错误失败,形成“级联故障”。

  1. 假设:出现一次 INSERT/UPDATE 异常(可能由数据约束、网络抖动、连接池等引发),全局 Session 进入 invalid;由于没有 rollback(),后续流程(更新状态、关联附件、移动邮件)全部失败。

  2. 代码验证:

    • 搜索到全局 session = session_factory()
    • 搜索 session.commit() 的使用点,基本均无 except: session.rollback()
    • 与报错语义完全吻合。
  3. 策略:小步快跑,先以最小改动恢复稳定性,再评估结构性重构。

本次修复分三层优先级(P0 → P2):

  • P0(立即生效,最小改动):在异常捕获处补齐 session.rollback(),让 Session 状态可自愈。
  • P1(全面防护):所有 commit() 外围增加 try/except/rollback,避免任何单点失败拖垮后续流程。
  • P2(结构优化):用 scoped_session 替换模块级全局会话,隔离不同处理流的会话状态(建议,非本次强制上线)。
  • 主流程增加回滚(mailflow/app/mail.py
try:
# 解析、判定 mail_type、构建附件解析器等
...
except Exception as err:
session.rollback() # 关键:恢复会话状态
notify_and_log(...)
process_status = False
  • 处理请求结果时的状态更新,增加防护(成功与失败分支都包裹)
try:
mail.move_to = 'Done'
mail.status = '20000'
session.commit()
except Exception as err:
session.rollback()
notify_and_log(...)
raise
  • 建立邮件与附件关联时增加防护
try:
for item in a_list:
attach = Attachment(...)
session.add(attach)
session.commit()
except Exception as err:
session.rollback()
notify_and_log(...)
raise
  • 创建邮件记录 create_mail 的提交保护
try:
mail = Email(...)
session.add(mail)
session.commit()
return mail
except Exception as err:
session.rollback()
notify_and_log(...)
raise

从根上避免“全局会话拖累所有流程”的风险,推荐使用 scoped_session

from sqlalchemy.orm import sessionmaker, scoped_session
session_factory = sessionmaker(bind=engine)
Session = scoped_session(session_factory) # 每个线程/协程隔离
# 在业务入口获取/释放:
session = Session()
try:
...
finally:
Session.remove() # 回收本地会话

说明:scoped_session 能在并发/多线程环境中提供更好的隔离性,减少“跨请求污染”。本次线上紧急修复优先保证回滚语义正确与完整性,再评估迁移成本与收益。

建议的验证思路:

  • 单条可复现邮件回放:重放出现过错误的邮件,观察处理链是否恢复;
  • 观察日志:不再出现 “Can’t reconnect until invalid transaction is rolled back”;
  • 人工 spot-check:核对 IMAP 文件夹移动、转发邮件、数据库状态;
  • 受控压力:增加一定数量的邮件样本,确保多处提交点都能正确回滚与继续。
  • 反模式:模块级全局 Session 一旦进入 invalid,会引发全链条“级联失败”。
  • 原则:任何 commit() 都应具备 try/except + rollback;在主流程捕获顶层异常时也要 rollback()
  • 设计:面向故障恢复的会话模型(scoped_session 或每次处理获取/释放会话)。
  • 运维:第一时间记录和告警(本项目已通过企业微信 notify_and_log 实现),并在消息里携带关键信息(uid、subject、时间、to_list)。

这次排查中,Claude Code 的“探索—推理—修复”路径可以复用到多数代码级问题:

  1. 快速建立问题边界:从错误语义入手,匹配最可能的层(事务/会话管理)。
  2. 证据驱动的搜索:定位涉及的文件、变量、函数(session_factorycommit() 使用点)。
  3. 假设 → 证伪/证成:提出“全局 Session + 无 rollback 导致级联失败”的假设,并在代码中找到直接证据。
  4. 最小改动优先:先补齐 rollback() 使 Session 可恢复,快速止血。
  5. 结构改进建议:给出 scoped_session 的后续优化路径,平衡收益与改造成本。

让 Claude Skills 帮你“开外挂”:三步上手、亮点速览、8 个真·落地场景

有没有这种时刻:你写报表像搬砖、做PPT像熬夜赶工,而同事却像开了挂,一条指令就生成成套文档、还自带品牌规范? 新发布的 Claude Skills,就是把这种“外挂”装进 Claude 里的方法。它把一堆重复活封装成模块,自动匹配、自动调用,像“专长包”一样随叫随到。


Claude Skills 是什么?(一句话版)

Section titled “Claude Skills 是什么?(一句话版)”

一个文件夹 = 一项专长。 里面放说明(SKILL.md)、脚本、资源。Claude 会按需加载并在合适的任务里自动调用。你不用会写代码,也能把自己的工作套路变成“可复用的技能”。

亮点速读 – 自动触发:根据任务语义匹配合适的 Skill – 可组合:多个 Skill 可协同完成复杂工作 – 可执行代码:必要时跑脚本,稳定、可复现 – 全场景可用:Claude.ai、Claude Code、API 同步可用 – 企业就绪:品牌规范、合规策略、表格自动化一把梭


它怎么“自动”:从发现到协同的 5 个瞬间

Section titled “它怎么“自动”:从发现到协同的 5 个瞬间”
  1. 扫描 & 发现:启动时扫描可用技能并读取摘要(极省上下文)。
  2. 匹配:你的请求一来,Claude 判断是否命中某项技能。
  3. 激活:命中就加载该技能需要的说明/资源/脚本。
  4. 执行:按说明完成任务,必要时调用代码工具。
  5. 协同:多个技能可并行或串行“接力”。

A. 安装 Claude Code(可选但强烈推荐)

Terminal window
npm install -g @anthropic-ai/claude-code

安装好后即可在本地项目中使用 Skills。

B. 在 Claude/Claude Code 里启用 Skills 设置里打开 Code execution / File creation,在 Skills 区域按需开启或上传 ZIP(自定义技能)。

C. 自定义一个 Skill(最小结构)

  • 新建文件夹 my-skill/
  • 写一个 SKILL.md:顶部 YAML 里包含 namedescription;正文写步骤、约束;需要的话再配 resources/ 或脚本。
  • 放到个人目录、项目目录或插件来源里(例如 .claude/skillsproject/claude/skills),Claude 会自动发现。

想直接上手?看看官方与社区示例库,改名即用。


SKILL.md 片段(示意):

---
name: Branded PPT Maker
description: Convert an outline to a PPT with our brand fonts, colors, and slide layout rules.
allowed-tools:
- python:read-only
- bash:read-only
---
# Instructions
- Read /resources/brand-guidelines.pdf
- Use title/body styles from page 5
- Build slide outline from user's bullets
- Export as .pptx

要点:用人话写清触发关键词、边界、输入输出;把规范、模板、示例都丢进 resources/;需要稳定步骤时配脚本


工作场景:4 个“省时到离谱”的用法

Section titled “工作场景:4 个“省时到离谱”的用法”

上传模板 + 规则,自动填公式、透视表、图表配色。每周复盘 10 分钟搞定。

喂给品牌手册和母版,Skill 自动套版、控字数、控对齐,还能输出成套讲稿。

把用例和选择器放进资源夹,脚本负责点击/断言,Skill 出一份带截图的测试报告。

把公司政策和黑名单词库放资源里,Skill 扫文档并标注风险句子,附改写建议。


生活场景:4 个“越用越上头”的玩法

Section titled “生活场景:4 个“越用越上头”的玩法”

输入城市、天数、偏好。Skill 拉行程、订路线、估预算,顺手生成一张 Excel 明细。

把体重目标和过敏原写进 SKILL.md 规则,自动给出一周食谱 + 购物单。

导入水电网账单 CSV,Skill 分类、纠错、可视化,最后生成“该谁付多少”的清单。

活动流程模板 + 注意事项打包成 Skill,自动生成群公告、签到表、物资清单。


  • 要不要担心安全? 官方建议只启用可信来源的技能;涉及代码执行的技能会受限在沙箱并带权限控制。
  • 谁能用? Pro、Max、Team、Enterprise 已开放,并且可在 Claude.ai、Claude Code 与 API 侧使用。
  • 哪里找示例? 先看官方/社区仓库,挑近似场景改一改就能跑。

说白了,Claude Skills = 把“你的工作流”产品化。 把零散的经验、规范、模板,封装成可触发、可复用、可协同的技能。 今天装一个“报表 Skill”,明天再加一个“品牌 Skill”,你的 AI 助手就真的会越用越懂你

你觉得先把哪项工作封装成 Skill 最值?欢迎在评论区聊聊。

用 OpenSpec + Claude Code,跑通一套高效、轻量和可控的规格驱动开发流程

用 OpenSpec 写“剧本”,用 Claude 执行“剧本”。三步走,从模糊需求到可落地改动,全程留痕、可回放、可协作。


做功能评审,大家各说各话;开干之后,产品改口、需求漂移、PR 回滚……你是不是也被这种节奏拖累过?

我最近把 OpenSpec + Claude 搭了一遍流程。装、起、提、落、归 五个动作,团队就能同步心智、快速交付,还能把过程“固化”成资产。下面就用一套真实命令与输出,带你 10 分钟走一遍。


  • 2 分钟上手npm i -g @fission-ai/openspec && openspec init,开箱生成 AGENTS.md、目录结构、工具预设。零 API Key 依赖。
  • 全 Markdown:提案、规格、任务分解都在 .md,人机可读、跨 IDE/Agent 可移植。
  • Claude 深度协作:通过 插件/指令 的方式,把“提案→落地→归档”串成标准作业流。
  • 版本化的共识:每个变更都可追溯,从「想法」到「实现」有据可依。且 OpenSpec 仍在活跃更新(v0.12.0 刚加了新 CLI 支持)。

Terminal window
npm install -g @fission-ai/openspec@latest
openspec --version

社区文档与仓库均给到同样的安装指引,上手门槛极低。


在项目根目录:

Terminal window
openspec init

它会创建 Root AGENTS.md、标准目录、并引导你勾选常用 AI 助手(Claude Code、Cursor、Copilot、Amazon Q 等)。输出里清清楚楚列了“已创建的工具”和“下一步做什么”。等于给所有 Agent 发了一份《进组须知》

为什么强调 AGENTS.md?因为它就是给 Agent 看的 README:怎么装依赖、怎么跑测试、代码风格是什么——别让模型瞎猜


直接把提示丢给你的助手:

“请阅读 openspec/project.md,帮我补全项目目的、技术栈、规范等。”

这一步会形成项目语境基线:语言版本、依赖、错误处理、目录约定、测试策略……之后的所有提案与实现,都在同一个语境里协作。(示例里已把 YouTube 爬取、并行处理、前后端约定等都写进去了)


当你想加一个功能,比如“直接下载 YouTube 字幕”,执行:

/openspec:proposal with @engineering/00-issues/10-feature-xxx.md

生成的提案包含 Why / What&How / 验收标准 / 测试场景,全部 Markdown,易读、可评审、好跟踪。这一步定锚“共识”,而不是直接“开干”。

# 10. Feature: Download subtitles directly from YouTube videos
## Why
Currently, the `vs-digital-garden` project downloads subtitles using an M3U8 playlist approach, which can be unreliable and slow. By implementing a direct subtitle download method using YouTube's API or direct HTTP requests, we can improve the reliability and speed of subtitle retrieval. This enhancement will ensure that users have access to accurate subtitles for their videos, enhancing the overall user experience and accessibility of the content.
## What && How
- Change `_download_subtitle_file` method in `vs-digital-garden-python/src/crawler.py` to download subtitles directly from YouTube using `requests` instead of current method with M3U8 playlist.
## Acceptance Criteria
### Testing
Generate BDD test cases for the new subtitle download method, including scenarios for successful downloads, handling of different subtitle formats, and fallback mechanisms in case of failures.

  • /openspec:apply → 将提案具体落实到代码与文档变更
  • /openspec:archive → 完成后归档,留存变更历史

整个闭环在 Claude 里就能走通;配合 Claude Code 插件,这些指令可以打包共享到团队环境,复制一套成熟工作流给所有人。


OpenSpec 把“要做什么”写清楚,Claude 再把“怎么做”执行出来。你会发现评审更短、返工更少。

纯文本 Markdown 对人和模型都友好,指令清晰、来回提问更少。社区实测里,多人提到“Token 使用更省、执行节奏更稳”。(可参考教程与视频复盘)

借助 Claude Code 插件体系,把 Slash 命令、Agent 角色、Hook 全部打包,一键安装到新同事环境,标准化开发体验

OpenSpec 仓库活跃、版本更新频繁(如 2025-10-14 发布 v0.12.0)。这意味着你踩到的问题,生态大概率在完善。

有不同声音吗?当然有。也有人质疑“Spec-driven 太啰嗦”。建议:从一个功能点试跑一周,用真数据说话。


一把梳理:你的第一条“从 0 到 1”流水线

Section titled “一把梳理:你的第一条“从 0 到 1”流水线”
  1. 安装npm i -g @fission-ai/openspec && openspec init
  2. 建共识:补全 openspec/project.md
  3. 提需求/openspec:proposal 写清 Why/What/验收
  4. 做实现/openspec:apply 由 Claude 生成/修改代码
  5. 留痕迹/openspec:archive 关单、沉淀为知识

小贴士:用 AGENTS.md 把“运行/测试/风格”写死;用 Claude 插件发给全员,一次设置,全队受益。


产品讨论再热闹,不如把分歧写进 Spec、把共识写成历史。 OpenSpec + Claude,不是多一个工具,而是把“怎么合作”变成了可执行的剧本

Claude Code 2.0.17 上新:Haiku 4.5 接管执行,Plan 用 Sonnet,速度与成本都下来了

今天的更新,对 Claude Code 写代码的人太友好了。

Claude Haiku 4.5 上线,便宜还更快;Plan 模式默认用 Sonnet 规划,执行切 Haiku。 实际体验?项目跑起来更顺,钱包也不那么疼了。官方定价与定位、以及这次在 Claude Code 里的联动,都能佐证这点。

Haiku 4.5:$1 / $5(输入/输出,每百万tokens),面向实时、低延迟任务,针对代码、子代理协作、电脑操作等场景做了优化。和今年 5 月的 Sonnet 4 相比,速度翻倍有余、成本约三分之一,但在很多编码任务上给到“近前沿”的表现。

为什么说“更省钱”?你可以对比下同梯队的定价:

  • Sonnet 4.5:$3 / $15(输入/输出)。
  • Opus 4.1:$15 / $75(输入/输出)。

这意味着,把一些不需要“最强脑力”的执行环节交给 Haiku 4.5,账单能立刻瘦身,而且响应更跟手。对需要批量跑 agent、对接服务端、或在 IDE 里频繁调用的团队来说,性价比非常明显。

小结:Haiku 4.5 = 接近 Sonnet 4 的编码力 + 更快速度 + 三分之一价格。这不是“凑合用的小模型”,而是“能落地的大杀器”。

亮点二:Plan 用 Sonnet,执行切 Haiku(2.0.17 的默认联动)

Section titled “亮点二:Plan 用 Sonnet,执行切 Haiku(2.0.17 的默认联动)”

这次 Claude Code 2.0.17 的细节很关键: **在 Plan 模式下,默认用 Sonnet 规划;到执行阶段自动切换 Haiku 来落地。**这和我们在终端/VS Code 里的真实工作流正好契合:重推理给 Sonnet,批量实现交给 Haiku。

  • 版本侧证:VS Code 扩展已到 2.0.17,伴随 10 月更新上架。
  • 官方基调:Claude Code 的主力仍由 Sonnet 4.5 驱动,负责长任务与复杂规划;Haiku 4.5 则以更快更省的姿态补上执行位。

这种“规划/执行分层”的设计,和此前“高级模型负责 Plan、次一级模型负责实现”的思路一脉相承,只是这次把 Haiku 4.5 换上了更能打的位置。

真实感受:Opus 太强,也太贵;Sonnet 稳;Haiku 现在能顶

Section titled “真实感受:Opus 太强,也太贵;Sonnet 稳;Haiku 现在能顶”

做过几次大活之后,我的感受更直接:

  • Opus:开脑洞、跨栈架构、深度检索,稳得离谱。**但账单真的顶不住。**一旦把执行也交给它,涌现出来的是结果,也是心跳。
  • Sonnet 4.5:现在是 Claude 家“最好用的编码大脑”。Plan 模式下让它思考,策略、步骤、风险提示都在线。
  • Haiku 4.5执行位的 MVP。跑 agent 子任务、开并行、写样板、搬文件、过测试,全都又快又省。写前端 scaffold、批量重命名、生成 fixtures 这种工作量,它几乎“不带喘”。

一句话:**昂贵的“思考”,用 Sonnet;大量的“手脚”,交给 Haiku。**你的速度会上去,成本会下来,稳定性也更可控。

上手建议(给忙碌的工程团队)

Section titled “上手建议(给忙碌的工程团队)”
  • 保持“Plan→Exec”分层:把难题拆清楚,再并行下发子任务,Haiku 4.5 扛执行。
  • 多用并行与子代理:让多个 Haiku 4.5 并跑,主代理用 Sonnet 4.5 协调。
  • 成本可视化:看 API usage,统计 Haiku/Sonnet/Opus 的调用占比,拉一个冲刺周期的对账单。
  • 场景切换:实时聊天助手、客服工单、低延迟编排,优先 Haiku 4.5;复杂改造、跨仓库大手术,Plan 交给 Sonnet 4.5。

这波更新没搞花活,就是把“好用+省钱”落实到日常开发流。 Plan 用 Sonnet,执行切 Haiku。代码动得快,钱也花得明白。

你怎么看?有没有哪种任务,Haiku 4.5 一上阵就立刻见效?欢迎在评论区分享你的实测。

用 Claude Code 做“面向文档编程”+ RSpec BDD,把 Rails 新功能几分钟搞定


有没有过这种痛:设备一分钟内连着上报好几条状态,数据库一片“信息噪音”? 今天聊个通用实战:在 Rails 里,把短时间内的重复上报合并为一条“黄金记录”

我会用 Claude Code 的“面向文档编程”思路起手,从一页文档→自动生成 BDD 场景→RSpec 验证→最小实现→回到文档沉淀。整套闭环,高速、稳、可追溯。关于 Claude Code 的定位与最佳实践,你也能在官方文档里找到清晰路线图。


我们的“公共版本”需求(已脱敏)

Section titled “我们的“公共版本”需求(已脱敏)”

业务背景(通用) 一个“智能健身手环”在 1 分钟内可能上报多条心率/状态。为了避免冗余,我们要:

  • 在一个可配置的时间窗(默认 1 分钟)内,按设备和类型,合并多条为一条
  • 以最新记录为准(同窗内的最后一条);
  • 写入统一工作记录表,保证幂等,并留下合并轨迹(便于审计与回溯)。

面向文档编程(Document-Driven) 把上面的说明放进一页“功能说明文档”,它既是产品协议、也是验收标准,后面直接产出 BDD 场景与测试。 这个方法和 “Specification by Example(示例化规格)/ATDD/BDD” 一脉相承——示例就是唯一可信的“真相源”


Claude Code + BDD:从文档到可执行的“验收剧本”

Section titled “Claude Code + BDD:从文档到可执行的“验收剧本””

为什么用 Claude Code 它是“会主动拉取上下文”的终端内编码副驾,能把代码、文档、依赖、脚手架串起来,把想法快速变成项目结构与可运行原型。官方也给了不少上手心法,比如如何优化上下文、如何组织仓库让智能体“读懂”你的需求。

通用提示词模板(可直接贴给 Claude Code)

角色:高级 Rails 工程师+测试教练 目标:实现“设备上报合并”为通用能力 产出: 1)根据下述文档,生成 RSpec(Rails+Capybara/请求/服务层)BDD 场景与边界用例; 2)给出最小实现骨架(服务对象、查询、事务、幂等策略); 3)生成回滚与审计日志建议; 4)把所有假设写回文档“开放问题”区; 附:功能说明文档(粘贴上面的“公共版本”需求)

为什么是 RSpec + BDD RSpec 天生面向行为与可读性,测试也是文档;Rails 官方测试指南也强调不同层级测试的分工。配合 Capybara/请求规范,既能做 API 行为验收,也能做系统级流。


用户故事

  • 作为数据平台,我希望在 1 分钟内,同一设备、同一记录类型的多条上报合并为一条,以最后一条为准,这样查询清爽、指标准确。

关键场景

  • 同窗合并:t=00:10、00:40 上报 → 保存 1 条,内容取 00:40。
  • 跨窗不合并:t=00:10、01:15 上报 → 保存 2 条。
  • 幂等写入:重复请求不会产生重复合并结果。
  • 审计可追溯:保留合并源 ID 与时间窗参数。

小技巧:把这些示例放进文档/Feature 文件,让它既是讨论载体也是自动化测试的蓝本。


spec/services/record_merger_spec.rb
RSpec.describe RecordMerger do
let(:device_id) { "device-123" }
let(:window) { 1.minute }
it "merges multiple records within window, keeps the latest" do
create(:work_status, device_id:, recorded_at: Time.current - 40.seconds, payload: { hr: 85 })
create(:work_status, device_id:, recorded_at: Time.current - 10.seconds, payload: { hr: 92 })
result = described_class.call(device_id:, record_type: :work_status, window:)
expect(result.payload[:hr]).to eq(92)
expect(WorkStatus.where(device_id:).count).to eq(1)
end
it "does not merge across windows" do
create(:work_status, device_id:, recorded_at: Time.current - 75.seconds)
create(:work_status, device_id:, recorded_at: Time.current - 10.seconds)
described_class.call(device_id:, record_type: :work_status, window:)
expect(WorkStatus.where(device_id:).count).to eq(2)
end
end

规范参考:RSpec/Capybara 的特性测试写法与依赖约束。


Rails 最小实现清单(思路导图)

Section titled “Rails 最小实现清单(思路导图)”
  • 入口:服务对象 RecordMerger.call(device_id:, record_type:, window:)

  • 查询:同设备+同类型+recorded_at 落在“自然时间窗”的记录

  • 合并策略

    • recorded_at 最大的那条为主数据
    • 其余作为“来源集合”写入 merged_from: [ids...]
  • 幂等与并发

    • 按设备+窗口做应用级互斥(如 with_advisory_lock
    • 关键字段加唯一索引(设备+窗口起点,或幂等键)
  • 审计

    • 记录 merge_window_secmerged_countmerged_from
    • 重要场景写 event log 用于追踪与回放

想做系统级 E2E,直接加 系统测试/请求测试 覆盖接口输入输出;Rails 官方指南对层级测试有清晰边界。


让 AI 真正加速:工程化用法清单

Section titled “让 AI 真正加速:工程化用法清单”
  • 把文档放在仓库根目录,命名统一,便于 Claude Code自动抓取上下文。
  • 一次只推进一个“微目标”:先让“同窗合并”绿灯,再扩展幂等、审计。
  • 频繁回写文档:新增边界条件、发现的陷阱都要沉淀到“开放问题/决策记录”。
  • 备份与里程碑:长会话偶有上下文压缩,里程碑时切分 Session+打 Tag,并做好本地快照。行业经验也提醒我们:AI 是强力电动工具,你仍然是工匠

行业侧反馈也在强化这条路:企业版全面引入 Claude Code,长上下文模型持续增强,大型代码库分析更稳。


交付物长这样(团队落地模板)

Section titled “交付物长这样(团队落地模板)”

1)一页功能文档(背景、目标、范围、术语、示例、开放问题) 2)RSpec 套件(服务层+请求/系统测试,含边界与回归) 3)服务对象 + 索引/锁(最小可用) 4)事件日志与仪表盘(合并命中率、节省存储、查询耗时变化)

价值可量化:文档就是规范;测试就是验收;日志就是运营复盘。 迭代更丝滑:新增“2 分钟窗”或“按类型分窗”——只需加示例 → 跑测试 → 小改实现。


面向文档编程 + BDD,不是“多写文档”,而是把文档变成可执行的产品契约。 配合 Claude Code,你把“想法→测试→实现→复盘”这条链路,按小时计。团队协作更顺、交付更稳,读者看代码就像读故事。

**你在团队里会怎样落地这个合并能力?**有没有更猛的幂等键设计?欢迎在评论区聊聊。

一段简洁提示词,让 Claude Code 同步改 Web、App、后端(以“会话自动锁屏时长”为例)

你写一段短到离谱的提示词,智能代理就把 Web(TypeScript)、App(Flutter)和 API(Rails)一起改完:加功能、设权限、配多语言,还能起迁移、跑校验。关键是好写、好复用

空口不信?往下看。


  • Claude Code 已上“插件”:把斜杠命令、子代理、MCP 服务器、生命周期 hooks 打包成一个可一键安装的插件。团队能把“多端联改”做成标准流水线
  • MCP(Model Context Protocol)相当于给 AI 插了 USB-C:把 IDE/代理和你的仓库、数据库、工具接起来,读写信息、执行动作都更标准。
  • 支持远程 MCP:很多能力直接连云端服务,用鉴权就能配,企业里多仓库多环境更省事
  • 官方还给了代理式编码最佳实践,强调结构化目标 + 清单式需求写法,落地更稳。
  • 新模型/生态也在推一把,比如 Sonnet 4.5 对复杂代理和“用电脑”场景更强,配合插件/MCP,从提示到补丁更顺滑。

用“会话自动锁屏时长”做替身场景

Section titled “用“会话自动锁屏时长”做替身场景”

我们要在“安全设置”里加一个功能:会话自动锁屏时长(Session Auto-Lock)

  • 两个选项:标准(2 分钟)严格(30 秒)
  • 仅授权用户能查看/修改
  • Web 管理台、App 设置页、API 一起改
  • 中英双语 i18n

这个功能足够通用,不涉及任何敏感业务代码。

给 Claude Code 的结构化提示词(可直接复用)

Section titled “给 Claude Code 的结构化提示词(可直接复用)”

把下面这段当“工单”。短句、动词开头、每段 2~4 行。让代理少追问,多产出。

Task: Add "Session Auto-Lock Duration" to Security Settings across Web (TypeScript), App (Flutter), and API (Rails).
Context:
- Two options: standard=2 minutes, strict=30 seconds. Default=standard.
- Only authorized users can view/modify this setting.
Requirements:
1) Web Admin:
- Add a dropdown field under Security Settings.
- Options: Standard / Strict. Bind permission key: session_auto_lock.
- Localize: en_US, zh_CN.
2) Mobile App:
- Add the same dropdown in Security Settings screen.
- Read/write to user/device security config. Hide/disable if unauthorized.
- Localize: en_US, zh_CN.
3) API:
- DB migration: add string column "session_auto_lock_duration" with default "standard".
- Model enum: STANDARD/STRICT/ALL_OPTIONS.
- Permission registration for "session_auto_lock".
- Validation: only allow ALL_OPTIONS; return 403 if unauthorized.
4) Copy:
- en_US: "Standard: 2 minutes", "Strict: 30 seconds"
- zh_CN: "标准(2分钟)", "严格(30秒)"
5) Review checklist:
- Permission gating works in Web/App/API.
- Default renders as "standard".
- i18n strings appear correctly.
- Ship diffs per repo with tests passing.

这种“落点明确 + 清单化”的提示,在代理式编码里效果最好;Claude Code 官方也推荐结构化指令,一次性降低反复沟通成本。

  • 安全设置页新增一个 Session Auto-Lock 下拉。

  • 绑定权限键 session_auto_lock;无权限隐藏或禁用。

  • i18n:

    • en_US:Standard / Strict
    • zh_CN:标准(2分钟)/ 严格(30秒)
  • “安全”页加入同名下拉组件。
  • 读取/保存到安全配置;无权限则置灰或不显示。
  • 文案同 Web,保持一致。
  • 迁移:session_auto_lock_duration,默认 standard
  • 模型常量:STANDARD / STRICT / ALL_OPTIONS
  • 权限注册:session_auto_lock;写接口做白名单校验;无权限 403。

这些动作可通过插件 + MCP连起来:代理读写多仓库文件、生成迁移、跑测试,再开 PR。

准备

  • 给 Web/App/API 各配一个轻代理或把步骤封装成插件的命令。
  • 接上本地/远程 MCP,绑定仓库与 CI。

执行

  • 用上面的“工单式提示词”触发。
  • 代理按清单生成补丁、迁移、i18n、权限注册;自动起 MR/PR。

复核

  • CI 跑 Lint/Tests;失败交给代理回修。
  • 人眼只看关键差异与验收项。
  • 需要合规/审计?插件里加操作留痕与回滚脚本。 -(注:近期生态对安全和可治理越来越重视,代理工具也在完善规则与用量治理。)

  • 指令别写散。短句 + 动词 + 名词落点,成功率更高。
  • 权限键、默认值、白名单选项写死,别交给模型“自由发挥”。
  • 文案直接给最终字符串,省一次来回。
  • 远程 MCP 很爽,但记得鉴权与最小权限,分环境分角色。
  • 把这段提示词沉到团队的指令库/插件,以后只换“功能名 + 枚举值”就能复用。

把复杂交给标准,把简单留给人。 一段结构化提示词 + 插件化代理 + MCP, 就能把“跨端、跨仓、跨语言”的机械活压扁。 你盯需求定义与最后拍板,其他交给机器跑。

你觉得呢?这个“会话自动锁屏时长”的替身方案适合你们项目吗?

Claude Code 也会“偷懒”:当你的 etc. 变成“只做前三条”

**一句话结论:**AI 写代码再快,也拯救不了模糊的需求。要想让 Claude Code 真正省心,关键是把“etc.”拆成清单、把验收变成剧本、把测试交给机器跑


你有没有写过这样的需求: “首页展示设备关键信息(电源、音量等)”。

结果提测时,AI 只实现了前三项。“等”就真的没了。 不是 AI 不聪明,是我们给它的信号不够明确。Claude Code 也会“偷懒”——当你的指令模糊时,它会合理但不完整地收敛实现范围。这并非坏事,这是人机协作的边界提醒

顺带一提,Anthropic 刚把 Haiku 升到 4.5,更便宜、更快、编码表现接近 Sonnet,在 Copilot 里也开始可用;速度更快,但**“等”还是不会自动补齐**。


现象:等号左边写得少,等号右边自然变小

Section titled “现象:等号左边写得少,等号右边自然变小”
  • 你写了“电源、音量、亮度等”。
  • Claude Code 读到的是明确的三项 + 不明确的“等”
  • 结果:代码、自动化测试、文档,全部只覆盖前三项

不是 AI “偷工减料”。是 AI 遵循“可验证优先”:明确的点能写代码和测试,不明确的点就会被跳过。这在研究与行业报告里被反复观察到——AI 助手在不完整或含糊的需求下更容易遗漏功能,即使它能更快地给出代码。


可复制的解决方案:别让“等”上生产

Section titled “可复制的解决方案:别让“等”上生产”

下面这套流程,适用于任何 App、后台、Web 项目。拿走即用。

把名词写成表格,给每一项加“状态、来源、展示规则、空值策略、异常策略”。示例字段:

  • 名称:Power / Volume / Brightness …
  • 值域:On/Off;0–100…
  • 数据源:本地缓存 / 后端接口 / 蓝牙…
  • 展示:图标、标签、单位
  • 空值:显示“—”还是灰显
  • 异常:超时、断连、权限被拒绝时的占位

这样做的价值:AI 能完整生成 UI + 校验 + 空态 + 错误处理,而不是只画出“看起来像对的三个组件”。

参考:用 Gherkin/BDD 写验收标准,把行为写成“Given-When-Then”的剧本,可读也可测。


二、把验收从“口头对”升级为“可执行”

Section titled “二、把验收从“口头对”升级为“可执行””

把清单转成 Gherkin 场景,再由 AI 产出自动化测试脚本:

Feature: Device key info panel
Scenario Outline: Render each key info item
Given the device exposes "<name>" with value "<value>"
When I open the home page
Then I should see "<label>" and formatted "<value>"
Examples:
| name | value | label |
| Power | On | Power |
| Volume | 70 | Volume |
| Brightness | 40 | Brightness|
| … | … | … |

研究表明:让 LLM 先从用户故事生成 Gherkin 场景,再转成可执行测试(如 Cypress),能显著提升覆盖率和可控性。


三、把“复用”做在数据层,少踩“重复实现”的坑

Section titled “三、把“复用”做在数据层,少踩“重复实现”的坑”

别在多个模块里各写一份相似的 infos()抽成可复用的数据映射与渲染器:一份 schema,到处消费

  • keyInfo.schema.ts:字段、值域、格式化、空态策略
  • keyInfo.adapter.ts:从不同数据源(API、蓝牙、缓存)统一适配
  • KeyInfoPanel.tsx纯展示,不碰业务逻辑
  • keyInfo.spec.ts:跑全量表格驱动测试,新增一项=自动多测一项

结果:新增“电池温度”这种后续项,也能一处加 schema,处处生效。这就是**“等”的工程化**。


四、把“AI 生成”放进持续集成

Section titled “四、把“AI 生成”放进持续集成”
  • PR 阶段自动跑:类型检查、静态规则、单元 + 验收测试
  • 门禁:若清单项数 ≠ 测试覆盖项数,直接拒绝合并。
  • 加上安全与合规扫描,防止AI 生成带来隐性风险

单测告诉你“哪里坏了”,验收测告诉你“是不是完整可用”。两者缺一不可


五、善用 Claude Code 最新能力,但不要把它当读心术

Section titled “五、善用 Claude Code 最新能力,但不要把它当读心术”
  • Claude Code Plugins:把你的“清单生成、Gherkin 转脚本、覆盖率校验”打包成一键安装的工作流,团队共享即用。
  • Haiku 4.5便宜且快,适合把“清单→场景→测试”的重复体力活批量化。在 Copilot 侧也逐步可用。
  • 记住:更快 ≠ 更懂你明确性才是生产力倍增器。

速用清单(可直接贴进团队 Wiki)

Section titled “速用清单(可直接贴进团队 Wiki)”

拉齐定义

  • 把“等”拆成表格清单,每项含:值域、来源、展示、空值、异常。
  • 为每项写 1 条 Gherkin 场景

自动化

  • 用 Claude 生成 Cypress/Playwright 脚本。
  • CI 强制:清单项数 = 通过的场景数

工程化复用

  • schema + adapter + 纯展示组件。
  • 新增项 = 增 schema;测试与 UI 自动跟进

安全与质量

  • 静态扫描 + 依赖与密钥检查。
  • PR 门禁不过就不合并。

Claude Code 没有偷懒。它只是按你给的“边界”办事。 当你把模糊变成结构化,把验收变成可执行,AI 就真的成了可靠的搭档

**你觉得团队里,哪一块最容易写出“等”?你在怎么治理?**欢迎在评论区聊聊。

用 Claude Code + 面向文档编程 + BDD 业务驱动测试,把华为鸿蒙 App 研发提速 3 倍

这套方法,专门解决「AI 能写代码,但不懂鸿蒙」「ArkTS 老报错」「回归测试跟不上」三大痛点。 核心是:用文档驱动 Claude Code,靠 BDD 自动化把质量兜住。


引言:别和 AI 胡扯,先把文档写好

Section titled “引言:别和 AI 胡扯,先把文档写好”

很多同学一上来就对 AI 说:“帮我做个蓝牙扫描、连接、同步时间的华为鸿蒙 App。” 结果 Claude Code 写得有模有样,一编译就全红。熟不熟 ArkTS?懂不懂 ArkUI 生命周期?测试咋回归?都没谱。

鸿蒙官方早就给出 ArkTS 编码规范ArkUI 声明式开发范式性能实践,这些是 Claude Code “学不会就老翻车”的坑位标准件 。 而 ArkTS 是 HarmonyOS 的主力语言,和 TypeScript 同宗但有自己的语义与生态,照 JS 的老习惯写,很容易踩坑 。 好消息是:Claude Code 已经支持“读仓库、编辑文件、写并运行测试、在终端执行命令”,只要把上下文喂对,它就能稳定输出工程化结果 。


一、面向文档编程:让 Claude Code 按你说的来

Section titled “一、面向文档编程:让 Claude Code 按你说的来”

目标:把需求、价值、实现、验收,一页纸说清楚;让 Claude Code 在鸿蒙语境里“按章施工”。

1)写「一页纸」需求(可直接贴进仓库 /docs/feature-xxx.md

Section titled “1)写「一页纸」需求(可直接贴进仓库 /docs/feature-xxx.md)”
  • 功能:蓝牙设备扫描 → 列表展示 → 连接 → 同步时间 → 读状态 → 发送命令 → 断开

  • 业务价值:门店导购 1 分钟完成设备初始化,减少 80% 人工失误

  • 平台:HarmonyOS NEXT,ArkTS + ArkUI;DevEco Studio 构建

  • 接口/模型:设备名以 XX 开头;连接后展示电量;发送“注入”命令回传成功标志

  • 验收标准(BDD 口吻)

    • Given 应用在首页
    • When 点击「Start Scan」,在列表看到以 XX 开头的设备并点击 Connect
    • Then 进入已连接页,看到设备名/电量;点击「Sync Time」「Refresh Status」「Send injection Command」均返回成功

ArkTS/ArkUI 的关键约束与最佳实践,记得在文档里抄要点:命名、状态管理、性能注意事项等(来自官方风格指南与状态管理指引)。把规范直接贴给 Claude Code,它会在生成时遵守这些规则 。

2)给 Claude Code 的首条系统提示(贴进 .claude/primer.md

Section titled “2)给 Claude Code 的首条系统提示(贴进 .claude/primer.md)”
  • 项目框架(ArkUI 页面结构、目录约定)
  • ArkTS 代码风格要求(变量/组件命名、可空判断、错误处理)
  • 组件清单 & 事件流(Button → 扫描 → 列表 → 连接)
  • 测试先行:先生成 BDD 场景与 ArkTS 测试桩,再补业务代码
  • 失败重试:编译错误→阅读错误→只改最小集

官方与社区都强调 以规范驱动编码,这能显著减少返工量与性能问题 。 Claude Code 本身也建议定制上下文与环境(例如忽略无关文件、给它一份专用 README/CONTRIBUTING),能明显提高命中率 。

3)把“流程说明 + 验收步骤”贴到 README

Section titled “3)把“流程说明 + 验收步骤”贴到 README”

下图是我们这次功能的人工验收步骤,用于人工核对与给 Claude Code 读上下文:

Index/Connected 手工验收说明

这段文字会被 Claude Code 当成“可执行文档”来吸收:它能先写 UI 流,再补逻辑与测试(Claude 官方宣称可“写并运行测试、编辑文件、提交代码”)。


二、BDD 业务驱动测试:把“文档”变成“可执行规范”

Section titled “二、BDD 业务驱动测试:把“文档”变成“可执行规范””

一句话:需求写成 Gherkin 场景,测试跑在 DevEco/arkXtest 框架上,测试红→AI 修→再测绿

Feature: Scan and connect device
Scenario: Find and connect device with prefix XX
Given App on Index Page
When I tap "Start Scan"
Then I should see a device starting with "XX" in the list
When I tap "Connect" on that device
Then I should be on Connected Page with name and battery shown

Gherkin/BDD 的优势是把“业务语言”直接变成可执行的规格,持续校验系统行为是否和文档一致 。

  • DevEco/arkXtest 体系:提供 单元测试 + UI 测试 + 性能测试 的统一框架;UI 测试脚本执行在单测之上,满足端到端验证需求 。
  • IDE 支持:DevEco Studio 集成了测试框架与代码测试入口,便于在真机/模拟器执行 。

一些资料还提到 HarmonyOS/ArkTS 在 NEXT 版本对测试能力升级,支持更现代的写法与参数化等技巧,可按需借鉴到你的工程模板里(以官方与权威资料为准) 。

3)示例:UI 场景测试骨架(摘自实际项目结构)

Section titled “3)示例:UI 场景测试骨架(摘自实际项目结构)”

ArkTS UI 场景测试片段

这个测试干了三件事:

  1. 若未扫描就尝试点「Start Scan」,否则写日志跳过
  2. 等待发现设备
  3. 定位包含指定前缀的设备并点击连接,断言进入已连接页

这类 UI 测试用例结构,和 arkXtest 的设计思路一致:用 API 驱动 UI 操作,统一在测试框架里收敛结果

4)把“测试红→AI 修复→再测绿”做成流水线

Section titled “4)把“测试红→AI 修复→再测绿”做成流水线”
  • Claude Code 回路:失败就把编译/运行日志贴回对话,让它最小改动修复(Claude 官方建议的“环境调优 + 上下文最小化”在这里很关键) 。
  • IDE/CI 集成:在 DevEco Studio 本地一键跑;CI 上接入真机/模拟器跑回归(参考 DevEco 测试入口与官方测试文档) 。
  • 可视化验收:把前面的人工验收步骤图放到 wiki,每个版本都跑 Gherkin + UI 测试,保证“文档即真相”。

三、落地手册:从 0 到 1 的 7 步 Checklist

Section titled “三、落地手册:从 0 到 1 的 7 步 Checklist”

Step 1|项目初始化

  • DevEco Studio 创建 ArkTS 项目;选择 ArkUI 声明式范式;确认目标 API/设备。
  • 建议拉一份 ArkTS 风格指南性能实践 入库 /guides,供人和 AI 同时参考 。

Step 2|一页纸需求

  • 写清功能、价值、接口、状态、异常、验收场景(Given/When/Then)
  • 把截图式的人工验收步骤放进 README(上文配图那段)。

Step 3|Claude Code 启动

  • .claude/primer.md/docs 作为首要上下文;限制它读取无关大文件。
  • 让它先生成测试桩 & Gherkin,再补业务代码与 ArkUI 页面 。

Step 4|ArkTS/ArkUI 编码

  • 遵守命名、组件化、状态管理约束;注意性能实践与可空/异常处理 。

Step 5|测试实现

  • 采用 arkXtest / DevEco 测试 跑单测+UI 测试;把 Gherkin 作为顶层用例描述(可在步骤定义里调用 UI 测试 API) 。

Step 6|循环修复

  • 失败日志丢给 Claude Code 进行最小修复;本地/CI 循环跑到全绿 。

Step 7|沉淀知识库

  • 把踩坑 & FAQ 记录到 /kb:如 BLE 权限、生命周期、列表性能。
  • 下一次仅需改“一页纸”和少量步骤描述,Claude Code 就能复用上下文继续生成

四、效果:质量、速度、认知,三线齐飞

Section titled “四、效果:质量、速度、认知,三线齐飞”
  • 速度:有了“文档即代码”的喂法,Claude Code 在鸿蒙项目上更稳定,减少来回猜
  • 质量:arkXtest + DevEco 测试把单测/UI/性能拉齐,回归自动化,人工只做探索式验证 。
  • 认知:规范与性能实践写进文档,人和 AI 同一套规则,新同学 1 天能上手 ArkTS/ArkUI 的基本套路 。

五、可复制模板(你可以直接拷走)

Section titled “五、可复制模板(你可以直接拷走)”
/docs
feature-ble-connect.md # 一页纸需求+验收
ui-flow.md # 界面流程与状态
/guides
arkts-style-guide.md # 摘抄+链接官方规范
performance-notes.md # ArkTS 性能实践
/tests
features/ble_connect.feature # Gherkin
ui/ble_connect.test.ets # UI 场景测试
.kb
ble-permissions.md
.claude/primer.md
  • 背景/价值
  • 约束(API/权限/设备前缀)
  • 验收场景(5~7 条 Given/When/Then)
  • 灰度/回滚策略

结语:让“文档—测试—代码”成闭环

Section titled “结语:让“文档—测试—代码”成闭环”

当你把文档写到能直接验收,Claude Code 才有可能一次就写对 ArkTS; 当你把BDD 场景跑起来,每个版本都能一键回归。 这就是我们在鸿蒙项目里稳定拿到“更快的速度 + 更稳的质量”的原因。

你觉得这套玩法还缺什么?评论区聊聊你的场景

在 Codex 里像 Claude Code 一样用 BMAD:把多角色 AI 团队装进你的仓库

装好 Codex 与 BMAD,把 BMAD 的“多角色专家”挂到 AGENTS.md,在终端直接喊 “*agent analyst”,Codex 就能按 BMAD 的敏捷流程带你做完从需求到交付的闭环。


做项目最怕两件事:没人写清需求写了又没人照着落地。 BMAD 把“业务分析、架构、产品、开发、测试、Scrum”等角色,做成一套可版本化的 Markdown 代理。配合 Codex 的 AGENTS.md,你就像带着一支 AI 小分队在干活。

这篇就是最实用的上手路线: 1)安装 BMAD; 2)改 AGENTS.md 挂上 BMAD 角色; 3)一条提示词把 Analyst 拉进来开工。


  • Codex 读得懂 AGENTS.md,会按你的项目习惯来构建、测试、提 PR,支持本地 CLI 与 IDE。
  • BMAD 提供可复用的“Agent as Code”:每个角色都是一个 .md,自带任务、清单、模板与工作流。
  • 两者合体=“项目规则 + 多角色协作 + 可执行检查”。用起来更像一支真团队。

步骤一:安装 BMAD(3 分钟快走法)

Section titled “步骤一:安装 BMAD(3 分钟快走法)”

先保证 Node.js v20+。

在你的项目根目录运行:

Terminal window
# 推荐的一键装/升级
npx bmad-method install
# 或已安装过就:
git clone https://github.com/bmad-code-org/BMAD-METHOD
cd BMAD-METHOD
git pull
npm run install:bmad

这会把 BMAD 的核心结构与脚本落到项目里(含 .bmad-core 目录、模板与脚本),并为后续代理工作做准备。

Terminal window
npx bmad-method install
██████╗ ███╗ ███╗ █████╗ ██████╗ ███╗ ███╗███████╗████████╗██╗ ██╗ ██████╗ ██████╗
██╔══██╗████╗ ████║██╔══██╗██╔══██╗ ████╗ ████║██╔════╝╚══██╔══╝██║ ██║██╔═══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║█████╗██╔████╔██║█████╗ ██║ ███████║██║ ██║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║╚════╝██║╚██╔╝██║██╔══╝ ██║ ██╔══██║██║ ██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝ ██║ ╚═╝ ██║███████╗ ██║ ██║ ██║╚██████╔╝██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝ ╚═╝ ╚═╝╚══════╝ ╚═╝ ╚═╝ ╚═╝ ╚═════╝ ╚═════╝
🚀 Universal AI Agent Framework for Any Domain
Installer v4.43.1
? Enter the full path to your project directory where BMad should be installed:
? Select what to install/update (use space to select, enter to continue): BMad Agile Core System (v4.43.1) .bmad-core
📋 Document Organization Settings
Configure how your project documentation should be organized.
? Will the PRD (Product Requirements Document) be sharded into multiple files? Yes
? Will the architecture documentation be sharded into multiple files? Yes
🛠️ IDE Configuration
⚠️ IMPORTANT: This is a MULTISELECT! Use SPACEBAR to toggle each IDE!
🔸 Use arrow keys to navigate
🔸 Use SPACEBAR to select/deselect IDEs
🔸 Press ENTER when finished selecting
? Which IDE(s) do you want to configure? (Select with SPACEBAR, confirm with ENTER): Cursor, Claude Code, iFlow CLI, Windsurf, Trae, Roo Code, Kilo
Code, Cline, Gemini CLI, Qwen Code, Crush, Github Copilot, Auggie CLI (Augment Code), Codex CLI, Codex Web
🔧 GitHub Copilot Configuration
BMad works best with specific VS Code settings for optimal agent experience.
? How would you like to configure GitHub Copilot settings? Use recommended defaults (fastest setup)
📍 Auggie CLI Location Configuration
Choose where to install BMad agents for Auggie CLI access.
? Select Auggie CLI command locations: Workspace Commands (Project): Stored in repository, shared with team
? Would you like to include pre-built web bundles? (standalone files for ChatGPT, Claude, Gemini) Yes
📦 Web bundles are standalone files perfect for web AI platforms.
You can choose different teams/agents than your IDE installation.
? What web bundles would you like to include? All available bundles (agents, teams, expansion packs)
? Enter directory for web bundles: web-bundles
Analyzing installation directory... Processed 67 files with {root} replacement
Added 4 common utilities
Added 3 documentation files
Installed all web bundles to: web-bundles
Created rule: ux-expert.mdc
Created rule: sm.mdc
Created rule: qa.mdc
Created rule: po.mdc
Created rule: pm.mdc
Created rule: dev.mdc
Created rule: bmad-orchestrator.mdc
Setting up cursor integration...✓ Created rule: bmad-master.mdc
Created rule: architect.mdc
Created rule: analyst.mdc
Created Cursor rules in .cursor/rules/bmad
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created Claude Code commands for core in .claude/commands/BMad
- Agents in: .claude/commands/BMad/agents
- Tasks in: .claude/commands/BMad/tasks
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created iFlow CLI commands for core in .iflow/commands/BMad
- Agents in: .iflow/commands/BMad/agents
- Tasks in: .iflow/commands/BMad/tasks
Created workflow: ux-expert.md
Created workflow: sm.md
Created workflow: qa.md
Created workflow: po.md
Created workflow: pm.md
Created workflow: dev.md
Created workflow: bmad-orchestrator.md
Created workflow: bmad-master.md
Created workflow: architect.md
Created workflow: analyst.md
Created Windsurf workflows in .windsurf/workflows
Created rule: ux-expert.md
Created rule: sm.md
Setting up trae integration...✓ Created rule: qa.md
Created rule: po.md
Created rule: pm.md
Created rule: dev.md
Created rule: bmad-orchestrator.md
Created rule: bmad-master.md
Created rule: architect.md
Created rule: analyst.md
Added mode: bmad-ux-expert (🎨 UX Expert)
Added mode: bmad-sm (🏃 Scrum Master)
Added mode: bmad-qa (🧪 Test Architect & Quality Advisor)
Added mode: bmad-po (📝 Product Owner)
Added mode: bmad-pm (📋 Product Manager)
Added mode: bmad-dev (💻 Full Stack Developer)
Added mode: bmad-bmad-orchestrator (🎭 BMad Master Orchestrator)
Added mode: bmad-bmad-master (🧙 BMad Master Task Executor)
Added mode: bmad-architect (🏗️ Architect)
Added mode: bmad-analyst (📊 Business Analyst)
Created .roomodes file in project root
Roo Code setup complete!
Custom modes will be available when you open this project in Roo Code
Added Kilo mode: bmad-ux-expert (🎨 UX Expert)
Added Kilo mode: bmad-sm (🏃 Scrum Master)
Added Kilo mode: bmad-qa (🧪 Test Architect & Quality Advisor)
Added Kilo mode: bmad-po (📝 Product Owner)
Added Kilo mode: bmad-pm (📋 Product Manager)
Added Kilo mode: bmad-dev (💻 Full Stack Developer)
Added Kilo mode: bmad-orchestrator (🎭 BMad Master Orchestrator)
Added Kilo mode: bmad-master (🧙 BMad Master Task Executor)
Added Kilo mode: bmad-architect (🏗️ Architect)
Added Kilo mode: bmad-analyst (📊 Business Analyst)
Created .kilocodemodes file in project root
KiloCode setup complete!
Custom modes will be available when you open this project in KiloCode
Created rule: 10-ux-expert.md
Created rule: 07-sm.md
Created rule: 09-qa.md
Created rule: 06-po.md
Created rule: 03-pm.md
Created rule: 08-dev.md
Created rule: 02-bmad-orchestrator.md
Created rule: 01-bmad-master.md
Created rule: 05-architect.md
Created rule: 04-analyst.md
Created Cline rules in .clinerules
Created agent command: /bmad:agents:ux-expert
Created agent command: /bmad:agents:sm
Created agent command: /bmad:agents:qa
Created agent command: /bmad:agents:po
Created agent command: /bmad:agents:pm
Created agent command: /bmad:agents:dev
Created agent command: /bmad:agents:bmad-orchestrator
Created agent command: /bmad:agents:bmad-master
Created agent command: /bmad:agents:architect
Created agent command: /bmad:agents:analyst
Created task command: /bmad:tasks:validate-next-story
Created task command: /bmad:tasks:trace-requirements
Created task command: /bmad:tasks:test-design
Created task command: /bmad:tasks:shard-doc
Created task command: /bmad:tasks:risk-profile
Created task command: /bmad:tasks:review-story
Created task command: /bmad:tasks:qa-gate
Created task command: /bmad:tasks:nfr-assess
Created task command: /bmad:tasks:kb-mode-interaction
Created task command: /bmad:tasks:index-docs
Created task command: /bmad:tasks:generate-ai-frontend-prompt
Created task command: /bmad:tasks:facilitate-brainstorming-session
Created task command: /bmad:tasks:execute-checklist
Created task command: /bmad:tasks:document-project
Created task command: /bmad:tasks:create-next-story
Created task command: /bmad:tasks:create-doc
Created task command: /bmad:tasks:create-deep-research-prompt
Created task command: /bmad:tasks:create-brownfield-story
Created task command: /bmad:tasks:correct-course
Created task command: /bmad:tasks:brownfield-create-story
Created task command: /bmad:tasks:brownfield-create-epic
Setting up gemini integration...✓ Created task command: /bmad:tasks:apply-qa-fixes
Created task command: /bmad:tasks:advanced-elicitation
Created Gemini CLI extension in .gemini/commands/BMad/
You can now use commands like /bmad:agents:dev or /bmad:tasks:create-doc.
Added context for *ux-expert
Added context for *sm
Added context for *qa
Added context for *po
Added context for *pm
Added context for *dev
Added context for *bmad-orchestrator
Added context for *bmad-master
Added context for *architect
Added context for *analyst
Created QWEN.md in .qwen/bmad-method
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created Crush commands for core in .crush/commands/BMad
- Agents in: .crush/commands/BMad/agents
- Tasks in: .crush/commands/BMad/tasks
Using pre-configured GitHub Copilot settings: defaults
Using recommended BMad defaults for Github Copilot settings
VS Code workspace settings configured successfully
Settings written to .vscode/settings.json:
chat.agent.enabled: true
chat.agent.maxRequests: 15
github.copilot.chat.agent.runTasks: true
chat.mcp.discovery.enabled: true
github.copilot.chat.agent.autoFix: true
chat.tools.autoApprove: false
You can modify these settings anytime in .vscode/settings.json
Created chat mode: ux-expert.chatmode.md
Created chat mode: sm.chatmode.md
Created chat mode: qa.chatmode.md
Created chat mode: po.chatmode.md
Created chat mode: pm.chatmode.md
Created chat mode: dev.chatmode.md
Created chat mode: bmad-orchestrator.chatmode.md
Created chat mode: bmad-master.chatmode.md
Created chat mode: architect.chatmode.md
Created chat mode: analyst.chatmode.md
Github Copilot setup complete!
You can now find the BMad agents in the Chat view's mode selector.
Using pre-configured Auggie CLI (Augment Code) locations: workspace
✓ Created command: ux-expert.md in Workspace Commands (Project)
✓ Created command: sm.md in Workspace Commands (Project)
✓ Created command: qa.md in Workspace Commands (Project)
✓ Created command: po.md in Workspace Commands (Project)
✓ Created command: pm.md in Workspace Commands (Project)
✓ Created command: dev.md in Workspace Commands (Project)
✓ Created command: bmad-orchestrator.md in Workspace Commands (Project)
✓ Created command: bmad-master.md in Workspace Commands (Project)
✓ Created command: architect.md in Workspace Commands (Project)
✓ Created command: analyst.md in Workspace Commands (Project)
✓ Created Auggie CLI commands in .augment/commands/bmad/
Location: Workspace Commands (Project) - Stored in your repository and shared with your team
⠼ Setting up codex integration...✓ Created/updated AGENTS.md for Codex CLI integration
Codex reads AGENTS.md automatically. Run `codex` in this project to use BMAD agents.
✓ Added npm scripts: bmad:refresh, bmad:list, bmad:validate
✓ Added .bmad-core/* to .gitignore for local-only Codex setup
✓ Created/updated AGENTS.md for Codex CLI integration
Codex reads AGENTS.md automatically. Run `codex` in this project to use BMAD agents.
✓ Updated .gitignore to include .bmad-core in commits
✔ Installation complete!
✓ BMad Method installed successfully!
🎯 Installation Summary:
✓ .bmad-core framework installed with all agents and workflows
✓ Web bundles (all bundles) installed to: web-bundles
✓ IDE rules and configurations set up for: cursor, claude-code, iflow-cli, windsurf, trae, roo, kilo, cline, gemini, qwen-code, crush, github-copilot, auggie-cli, codex, codex-web
📖 IMPORTANT: Please read the user guide at docs/user-guide.md (also installed at .bmad-core/user-guide.md)
This guide contains essential information about the BMad workflow and how to use the agents effectively.

小贴士:遇到路径报错,确认目录前面有点.bmad-core 而不是 bmad-core)。这类路径不一致是常见坑。


步骤二:在 AGENTS.md 挂上 BMAD 角色

Section titled “步骤二:在 AGENTS.md 挂上 BMAD 角色”

AGENTS.md 就是“给 AI 的 README”。位置在仓库根目录,是标准 Markdown,形式自由,写你希望代理遵循的构建/测试/风格/流程等。

Codex、Cursor、Gemini 等主流代理都会读它;你写在这里的规则,代理会按你说的做。

为了让 Codex 快速定位 BMAD 角色,在 AGENTS.md 中新增一个“BMAD Agents”小节,并放入简洁的角色映射。很多团队习惯用 YAML 片段来列出路径(便于人和工具解析),示例如下:

# BMAD Agents
agents:
- id: analyst
path: .bmad-core/agents/analyst.md
- id: architect
path: .bmad-core/agents/architect.md
- id: bmad-master
path: .bmad-core/agents/bmad-master.md
- id: bmad-orchestrator
path: .bmad-core/agents/bmad-orchestrator.md
- id: dev
path: .bmad-core/agents/dev.md
- id: pm
path: .bmad-core/agents/pm.md
- id: po
path: .bmad-core/agents/po.md
- id: qa
path: .bmad-core/agents/qa.md
- id: sm
path: .bmad-core/agents/sm.md
- id: ux-expert
path: .bmad-core/agents/ux-expert.md

说明:AGENTS.md 并不强制 YAML,它本质是 Markdown;你也可以用表格或列表写法表达同样信息。核心是让代理可靠找到这些 .md


步骤三:在 Codex 里启动 Analyst(BMAD 分析师)

Section titled “步骤三:在 Codex 里启动 Analyst(BMAD 分析师)”

CLI 两种安装二选一:

Terminal window
npm i -g @openai/codex
# 或
brew install codex

装完在项目根目录运行 codex,按提示登录 ChatGPT 账号即可开始。

进入 Codex 交互后,直接说:

*agent analyst
Hi, I’m Mary — Business Analyst.
All commands must start with *.
1. *help — Show available commands
2. *brainstorm {topic} — Facilitate structured brainstorming
3. *create-competitor-analysis — Create competitor analysis doc
4. *create-project-brief — Create project brief
5. *doc-out — Output current document
6. *elicit — Run advanced elicitation
7. *perform-market-research — Create market research doc
8. *research-prompt {topic} — Generate deep research prompt
9. *yolo — Toggle skip confirmations
10. *exit — Exit Business Analyst persona

BMAD 的 Web/IDE 工作流里,*help*analyst 是常见的入口提示与角色选择语法;把这一套“数字选项 + 任务驱动”的对话风格原样搬到 Codex,就能获得类似体验。

备忘:BMAD 的 Analyst/Architect/PM/Dev 等角色在对应的 agents/*.md 里有命令与清单;有些任务(如头脑风暴)依赖 .bmad-core/tasks/* 中的文件。路径对了,代理就能加载。


一套「从零到一」的小抄(可直接用)

Section titled “一套「从零到一」的小抄(可直接用)”

初始化

  • npx bmad-method install(或 npm run install:bmad
  • 检查 .bmad-core 是否到位、Node v20+。

配置

  • AGENTS.md 写“构建/测试/代码风格/提交流程”。
  • 加上“BMAD Agents”映射,确保各角色 .md 能被找见。

开干

  • codex,发送 *agent analyst 启动词。
  • 产出 docs/brief.md → 切 Architect 出架构稿 → Scrum Master 切故事 → Dev 执行实现 → QA 校验。

实战加速:把“检查与提 PR”也交给 Codex

Section titled “实战加速:把“检查与提 PR”也交给 Codex”

Codex 天生支持在仓库里跑命令与做代码评审(如在 PR 里 @ 它),搭配 AGENTS.md 里的测试/风格/构建说明,能把本地验证自动审查串起来。


  • 路径写错.bmad-core 少了前导点,导致加载失败 → 统一改为带点路径。
  • 指令太散:记得把“怎么构建/怎么测/代码规范/提交规则”写进 AGENTS.md,代理才会一致执行。
  • 角色太多记不住:进对话就打 *help 或在启动词里让代理用数字选项提议下一步。

BMAD 把“角色”变成可版本化的代码Codex 把“执行”变成可自动化的动作。 把两者接上,你的项目就多了一支不疲劳、可复制、对规矩永远不忘的 AI 团队。

你会把哪个项目先交给这支团队?评论区聊聊。


你会把 BMAD 的哪个角色深度定制?Analyst、Architect 还是 QA?
说说你的理由和一个必须执行的团队规则。

Claude Code 自动迁移 HarmonyOS BLE v15+ 多路扫描与连接管理

用 Claude Code 快速开发 HarmonyOS 6 蓝牙设备管理 App:蓝牙交互、ArkTS 编译修复与 TDD/BDD 实战

Section titled “用 Claude Code 快速开发 HarmonyOS 6 蓝牙设备管理 App:蓝牙交互、ArkTS 编译修复与 TDD/BDD 实战”

本文演示如何借助 Claude Code 快速完成一款面向华为 HarmonyOS 6 的蓝牙设备管理 App,覆盖典型能力:接收蓝牙广播、连接设备、设置时间、同步状态、输注、获取日志;并重点介绍 ArkTS 编译错误修复思路,以及以 TDD/BDD 为导向的测试落地。

—— 适合希望以“边写边测、快速迭代”打造 BLE 设备应用的团队。

  • 目标设备:蓝牙设备。
  • 典型指令:
    • 读取状态、同步时间、输注、读取记录。

实现文件与数据模型:

  • entry/src/main/ets/utils/BleService.ets 扫描与发现、连接、通知、命令发送等一站式封装。
  • entry/src/main/ets/utils/BleCommand.ets 指令构造(含 CRC 与长度、时间/剂量编码)。
  • entry/src/main/ets/utils/BleResponseParser.ets 响应解析。
  • entry/src/main/ets/utils/BleAdvertisingParser.ets 广播数据解析(本地名、UUID、厂商数据等)。

二、Claude Code 如何加速 ArkTS 原生开发

Section titled “二、Claude Code 如何加速 ArkTS 原生开发”
  • 代码导航与重构
    • 通过指令快速定位 BLE 相关入口、交叉引用与依赖;批量改名与接口抽取保持一致性。
  • 辅助修复 ArkTS 编译告警/错误
    • 自动指出 arkts-no-spreadunknown/any 等规则触发点,给出替换写法与类型补全建议。
  • 生成测试骨架并补充断言
    • 基于 Hypium 的单元测试、UI 集成测试样例可快速落地与扩展。

结合这些能力,可以形成“修改 → 运行测试 → 分析日志 → 修复/重构”的高频闭环,显著缩短从协议梳理到端到端可用的周期。

1. 接收蓝牙广播(扫描与解析)

Section titled “1. 接收蓝牙广播(扫描与解析)”
  • 多路径扫描(HarmonyOS API v15+):
    • 入口:entry/src/main/ets/utils/BleService.ets startScan(...)
    • 事件:BLEDeviceFind 持续上报,内部使用 BleAdvertisingParser 解析本地名、服务 UUID、厂商数据等。
  • 广播解析:entry/src/main/ets/utils/BleAdvertisingParser.ets
    • 覆盖 Flags、完整/不完整 UUID、Manufacturer Specific Data 等主流 AD 类型,便于快速判断是否为目标设备。

配套的发现服务:entry/src/main/ets/utils/BleDiscoveryService.ets 封装了发现列表、按 RSSI 排序、超时自动停止与“可信设备”缓存策略,UI 侧直接订阅状态/结果回调即可。

  • 连接与服务发现后,写入前必须“先订阅、再开通知、再读一次”:
    • 启用通知:entry/src/main/ets/utils/BleService.ets
      • gattClient.on('BLECharacteristicChange', ...) 订阅回调
      • setCharacteristicChangeNotification(..., true) 开启
      • 可选执行一次 readCharacteristicValue 以“预热”通知通道(部分设备需要)
  • 通知回调:entry/src/main/ets/utils/BleService.ets onCharacteristicChanged(...)
    • 使用小写 UUID 比对,规避不同大小写带来的遗漏
    • characteristic.characteristicValue 转为 ArrayBuffer 后分发给待处理回调或统一协议解析
  • 发送写入:entry/src/main/ets/utils/BleService.ets sendCommand(...)
    • ArkTS 禁用对象展开(no-spread),需直接修改 characteristicValue 后写入
    • 统一输出十六进制串以便排查:BleCommand.toHexString(...)
  • 指令构建:
    • 读状态 entry/src/main/ets/utils/BleCommand.ets
    • 同步时间 entry/src/main/ets/utils/BleCommand.ets
    • 输注指令 entry/src/main/ets/utils/BleCommand.ets(剂量 ×1000 转整数,小端写入)
  • 同步时间:entry/src/main/ets/utils/BleService.ets,写入 0xA7 包含年月日周时分秒,完成后走通知通道校验。
  • 读取状态:entry/src/main/ets/utils/BleService.ets → 等待通知 → 解析:entry/src/main/ets/utils/BleResponseParser.ets
    • 解析电池状态、电压/电量、剩余剂量、单次/日上限、告警位、今日用量、最大日志条数等。
  • entry/src/main/ets/utils/BleService.ets 调用 buildInjectionCommand(dose)
  • entry/src/main/ets/utils/BleCommand.ets 剂量按千分精度编码为 4 字节小端整数,满足“较大/高精度剂量”场景。
  • 建议:
    • 结合状态中的单次/日上限做前置校验,必要时分包或分次下发;
    • 关注 MTU(典型 20 字节)限制与指令长度设计。
  • 通知处理分流:entry/src/main/ets/utils/BleService.ets processReceivedData(...)
    • “ 路径调用记录解析:entry/src/main/ets/utils/BleResponseParser.ets parseRecord(...)
    • 支持注射记录与操作记录两类结构化数据。
  • 若需“按索引/类型拉取历史记录”,可在 BleCommand 中补齐 READ_RECORD_WITH_TYPE 构造(工程中已留注释模板),与上面的解析逻辑无缝对接。

文档汇总:docs/ble-arkts-fix-summary.md

  • 类属性缺失
    • connectionPromiseResolvers 未声明,需补充为 Map<string, => void>,用于连接 Promise 的外部解析。
  • arkts-no-spread
    • 写特征值时禁止对象展开,直接改 existing.characteristicValue = ...(见 BleService.ets 段落)。
  • unknown/any 与宽松字面量
    • 通知回调中移除 Record<string, string>/unknown 临时断言,改为强类型访问;
  • 通知匹配与日志
    • UUID 小写比对,详细打印 service/char UUID 与十六进制载荷,便于现场排障。

这些修复在不改变业务语义的前提下,让代码同时满足 ArkTS 语义与 Lint 规则,构建稳定且可维护。

  • 设备发现与缓存
    • entry/src/ohosTest/ets/test/BleDiscoveryService.test.ets
    • entry/src/ohosTest/ets/test/DeviceCache.test.ets
  • 覆盖点:
    • 扫描状态流转、按名称过滤、RSSI 排序、自动停止;
    • 可信设备标记、缓存清理、容量上限、过期统计等。
  • 运行:
    • hvigor test
    • 按文件过滤:hvigor test --filter BleDiscoveryService
  • 场景用例:entry/src/ohosTest/ets/test/BleUIIntegration.test.ets
    • 启动 → 开始扫描 → 发现设备 → 连接 → 同步时间/刷新状态/发送输注 → 断开。
    • 利用 @kit.TestKitDriver 查找按钮、点击与断言,保障“从 UI 到协议”的端到端路径。
  • 运行:
    • 全量集成测试:hvigor test --integration
  • BLE 环节多为异步回调:为扫描/连接/写入/通知分别设置合理超时(如 5–15s),避免误报;
  • 对关键 UI 文案与按钮可多次尝试查找,提升稳定性;
  • 以十六进制日志为断言辅助(见 BleService.ets/BleService.ets)。
  • 通知顺序与“预热”
    • 订阅 → 打开通知 → 先读一次,能显著提升部分设备第一次下行响应的成功率。
  • MTU 与指令长度
    • 典型 BLE 4.2 仅 20 字节,复杂指令需要分拆或升级端侧/固件侧协商策略。
  • 小端编码与 CRC
    • 指令总长度、字段编码与 CRC16(CCITT/False)计算需与固件严格对齐。
  • HiLog 代替 console
    • 统一域/Tag 与 %{public} 输出(见 docs/hilog-migration-summary.md),便于线下与现场定位。
  • 权限与蓝牙状态
    • 统一入口:entry/src/main/ets/utils/BlePermissionManager.ets ensureBleReady(...),在进入扫描前一次性处理权限与适配器状态。

得益于 Claude Code 的“代码导航 + 编译修复 + 测试生成功能”,我们用最少的往返就完成了从协议梳理到端到端跑通的闭环:

  • 蓝牙交互:扫描、连接、通知、命令、记录解析全链路打通;
  • ArkTS 修复:严格遵循语义与 Lint 规则,构建稳定;
  • TDD/BDD:单元与 UI 集成测试覆盖主要场景,便于持续回归。

推荐的后续工作:

  • BleCommand 中补齐 READ_RECORD_WITH_TYPE 指令构造,与现有解析对接,完善“按索引拉取日志”。
  • 引入更细粒度的 ViewModel 层状态管理与数据持久化,配合记录同步形成完整“云-端-设备”闭环。
  • 梳理异常码与重试策略,增强断网/重连下的健壮性。

Claude Code 自动迁移 HarmonyOS BLE v15+ 多路扫描与连接管理

之前项目中使用的 HarmonyOS BLE API 版本较低(v14及以前),存在单路扫描限制、资源管理不完善等问题。

现在使用Claude Code生成和修改代码,帮助我理解并自动迁移到最新的 HarmonyOS BLE API v15+,实现多路扫描和更健壮的连接管理。

最后总结记录了从 v14 迁移到 v15+ 的完整过程,重点介绍多路扫描支持、广播数据解析和连接管理优化。

在 HarmonyOS 生态中,BLE(Bluetooth Low Energy)是智能设备互联的重要技术。随着应用需求的增加,单路扫描的限制逐渐显现,尤其是在需要同时扫描多个设备或服务的场景下。

HarmonyOS 在 API version 15 中引入了多路扫描支持,允许应用创建多个独立的扫描实例,提升了资源管理和扫描灵活性。

然而,现有项目代码仍然基于旧版 API,存在以下问题:

  1. 单路扫描限制:只能同时进行一个扫描任务,无法满足多设备扫描需求。
  2. 资源管理不完善:扫描器实例未独立管理,导致状态混乱。
  3. 缺少广播数据解析:扫描结果未解析广播数据,影响设备信息获取。
  4. 连接管理简单:缺少重试和自动重连机制,影响连接稳定性。

基于最新的 HarmonyOS BLE API v15+,重构现有的 BLE 服务代码,实现以下目标:

  1. 多路扫描支持:允许同时运行多个扫描任务,每个任务独立管理。
  2. 独立资源管理:每个扫描器实例独立控制,避免冲突。
  3. 完整的广播数据解析:实现对 BLE 广播数据的解析功能。
  4. 增强的连接管理:实现连接重试和自动重连机制,提升连接稳定性。
  5. 现代化的异步处理:使用 Promise/async-await 处理异步 BLE 操作。

在开始迁移之前,首先需要下载官方文档,让 Claude Code 了解 HarmonyOS BLE API v15+ 的新特性和变更。

我将官方文档内容提供给 Claude Code,并请求它分析现有代码中的问题,并执行迁移到最新 API 的步骤。

Terminal window
> @harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md 推荐使用API version
15开始支持的扫描方式,该方式支持应用发起和管理多路扫描。不要再使用 API version
14及以前支持的扫描方式只支持应用发起单路扫描
Read harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md (806 lines)
我理解了,这份文档强调了HarmonyOS BLE开发的重要更新:
关键要点
API版本升级建议:
- 推荐:使用API version 15+的多路扫描方式
- 避免:API version 14及以前的单路扫描方式
主要差异对比
API v15+ (推荐方式)
// 创建独立的扫描实例,支持多路扫描管理
let bleScanner: ble.BleScanner = ble.createBleScanner();
// 订阅扫描结果
bleScanner.on('BLEDeviceFind', onReceiveEvent);
// 启动扫描
bleScanner.startScan([scanFilter], scanOptions);
// 停止扫描
bleScanner.stopScan();
优势:
- 支持多路并发扫描
- 每个扫描实例独立管理
- 更灵活的资源控制
- 更好的扫描隔离性
API v14及以前 (不推荐)
// 全局单例扫描,仅支持单路
ble.on('BLEDeviceFind', onReceiveEvent);
ble.startBLEScan([scanFilter], scanOptions);
ble.stopBLEScan();
局限:
- 仅支持单路扫描
- 全局状态管理复杂
- 无法同时管理多个扫描任务
实施建议
根据文档中的示例代码(BleScanManager类),建议项目采用以下架构:
1. 使用BleScanner实例管理:每个扫描任务创建独立的BleScanner实例
2. 封装扫描管理器:如文档中的BleScanManager类,统一管理扫描生命周期
3. 完整的广播解析:实现完整的BLE广播数据解析功能
4. 异步操作处理:使用Promise/async-await处理异步BLE操作
这种升级对于HarmonyOS项目特别重要,因为应用可能需要同时扫描多个设备或执行不同类型的扫描任务。
我将基于HarmonyOS API v15+的最新规范重构BleService.ets,实现多路扫描管理和更现代化的BLE操作架构。
代码分析
现有BleService.ets存在以下关键问题:
1. 使用已废弃的API v14单路扫描:使用ble.startBLEScan()和ble.on('BLEDeviceFind')
2. 缺少BLE广播数据解析:未解析扫描结果中的广播数据
3. 资源管理不完善:扫描器实例未独立管理
4. 错误处理简单:缺少细粒度的错误恢复机制
...

Claude Code 根据分析结果,生成了新的 BleService.ets 代码,包含多路扫描支持、广播数据解析和增强的连接管理功能。

481
482 // Pending response callbacks
483 private pendingCallbacks: Map<string, (data: ArrayBuffer) => void> = new Map();
484 +
485 + /**
486 + * Clean up scanner resources
487 + */
488 + private cleanupScanner(scanId: string): void {
489 + // Clear timer
490 + const timer = this.scanTimers.get(scanId);
491 + if (timer) {
492 + clearTimeout(timer);
493 + this.scanTimers.delete(scanId);
494 + }
495 +
496 + // Remove from active set
497 + this.activeScanners.delete(scanId);
498 +
499 + // Clean up scanner instance
500 + this.bleScanners.delete(scanId);
501 + this.scanCallbacks.delete(scanId);
502 + }
503 +
504 + /**
505 + * Set up periodic cleanup of stale discovered devices
506 + */
507 + private setupDeviceCleanupTimer(): void {
508 + setInterval(() => {
509 + const now = Date.now();
510 + const staleThreshold = 60000; // 60 seconds
511 +
512 + for (const [deviceId, lastSeen] of this.deviceLastSeenTime.entries()) {
513 + if (now - lastSeen > staleThreshold) {
514 + // Remove stale devices not connected
515 + if (!this.connectedDevices.has(deviceId)) {
516 + this.discoveredDevices.delete(deviceId);
517 + this.deviceLastSeenTime.delete(deviceId);
518 + hilog.info(DOMAIN, TAG, `Removed stale device: ${deviceId}`);
519 + }
520 + }
521 + }
522 + }, 30000); // Run every 30 seconds
523 + }
524 +
525 + /**
526 + * Get all discovered devices (including non-connected)
527 + */
528 + public getDiscoveredDevices(): BleDevice[] {
529 + return Array.from(this.discoveredDevices.values());
530 + }
531 +
532 + /**
533 + * Get active scanner IDs
534 + */
535 + public getActiveScanners(): string[] {
536 + return Array.from(this.activeScanners);
537 + }
538 +
539 + /**
540 + * Create targeted scan for specific device
541 + */
542 + public async scanForDevice(
543 + deviceId: string,
544 + timeout: number = 10000
545 + ): Promise<BleDevice | null> {
546 + return new Promise((resolve, reject) => {
547 + const scanId = `targeted-${deviceId}-${Date.now()}`;
548 +
549 + this.startScan(
550 + scanId,
551 + (device) => {
552 + if (device.id === deviceId) {
553 + this.stopScan(scanId);
554 + resolve(device);
555 + }
556 + },
557 + { timeout }
558 + );
559 +
560 + // Set timeout for not finding device
561 + setTimeout(() => {
562 + if (this.activeScanners.has(scanId)) {
563 + this.stopScan(scanId);
564 + resolve(null);
565 + }
566 + }, timeout);
567 + });
568 + }
569 }

我对生成的代码进行了详细审查,确保符合项目需求,并在实际设备上进行了全面测试,验证多路扫描和连接管理功能的稳定性。

Terminal window
$ hdc file send entry/build/default/outputs/ohosTest/entry-ohosTest-signed.hap "data/local/tmp/6a550b34422f402d80438c69110c772e"
$ hdc shell bm install -p data/local/tmp/6a550b34422f402d80438c69110c772e
$ hdc shell rm -rf data/local/tmp/6a550b34422f402d80438c69110c772e
Running tests.
$ hdc shell aa test -b com.vibersparking.ble_test -m entry_test -s unittest OpenHarmonyTestRunner -s class BleServiceTest -s timeout 15000
Started running tests.
Test finished.

最后让Claude Code生成了完整的总结文件,记录了从HarmonyOS BLE API v14迁移到v15+的完整过程,包括多路扫描支持、广播数据解析和增强的连接管理功能。

特性API v14及之前API v15+
扫描方式单路扫描(全局)多路扫描(实例化)
扫描器管理ble.startBLEScan()ble.createBleScanner()
扫描事件ble.on('BLEDeviceFind')bleScanner.on('BLEDeviceFind')
停止扫描ble.stopBLEScan()bleScanner.stopScan()
资源管理全局状态独立实例管理
  • 多路并发扫描:支持同时运行多个扫描任务
  • 独立资源管理:每个扫描器独立控制,避免冲突
  • 更好的错误隔离:单个扫描失败不影响其他扫描
  • 灵活的过滤配置:每个扫描可设置独立过滤条件
export class BleService {
// API v15+ 扫描器管理
private bleScanners: Map<string, ble.BleScanner> = new Map();
private activeScanners: Set<string> = new Set();
private scanCallbacks: Map<string, (device: BleDevice) => void> = new Map();
private scanTimers: Map<string, number> = new Map();
// 设备缓存管理
private discoveredDevices: Map<string, BleDevice> = new Map();
private deviceLastSeenTime: Map<string, number> = new Map();
// 连接管理
private autoReconnectDevices: Set<string> = new Set();
private connectionRetryCount: Map<string, number> = new Map();
}
public startScan(
scanId: string,
callback: (device: BleDevice) => void,
options?: BleStartScanOptions
): void {
// 检查扫描ID唯一性
if (this.activeScanners.has(scanId)) {
hilog.warn(DOMAIN, TAG, `Scanner ${scanId} already active`);
return;
}
try {
// 创建独立扫描器实例 (API v15+)
const bleScanner = ble.createBleScanner();
this.bleScanners.set(scanId, bleScanner);
this.scanCallbacks.set(scanId, callback);
// 配置扫描过滤器
const scanFilters: ble.ScanFilter[] = [];
if (options?.filterServiceUuid) {
scanFilters.push({
serviceUuid: SERVICE_UUID
});
}
// 订阅扫描结果
bleScanner.on('BLEDeviceFind', (scanReport: ble.ScanReport) => {
this.onDeviceFoundV15(scanId, scanReport);
});
// 启动扫描
bleScanner.startScan(scanFilters, scanOptions);
this.activeScanners.add(scanId);
// 设置自动停止定时器
const timeout = options?.timeout || SCAN_TIMEOUT_MS;
const timer = setTimeout(() => {
if (this.activeScanners.has(scanId)) {
this.stopScan(scanId);
}
}, timeout);
this.scanTimers.set(scanId, timer);
} catch (error) {
this.cleanupScanner(scanId);
throw error;
}
}
export class BleAdvertisingParser {
public parse(data: ArrayBuffer): ParsedAdvertisingData {
const result: ParsedAdvertisingData = {
serviceUuids: [],
serviceSolicitationUuids: [],
serviceData: new Map(),
manufactureSpecificData: new Map(),
rawData: data
};
const advData = new Uint8Array(data);
let position = 0;
while (position < advData.byteLength) {
const length = advData[position++];
if (length === 0) break;
const type = advData[position++];
const dataLength = length - 1;
const dataStart = position;
switch (type) {
case AdvertisingDataType.FLAGS:
result.flags = advData[dataStart];
break;
case AdvertisingDataType.LOCAL_NAME_COMPLETE:
result.localName = this.parseString(advData, dataStart, dataLength);
break;
case AdvertisingDataType.SERVICE_UUID_16_COMPLETE:
this.parseServiceUuids(advData, dataStart, dataLength, 2, result.serviceUuids!);
break;
case AdvertisingDataType.MANUFACTURER_SPECIFIC_DATA:
this.parseManufacturerData(advData, dataStart, dataLength, result.manufactureSpecificData!);
break;
}
position += dataLength;
}
return result;
}
}
public async connectDevice(
deviceId: string,
options?: BleConnectOptions
): Promise<void> {
const timeout = options?.timeout || CONNECTION_TIMEOUT_MS;
const retryCount = options?.retryCount || 3;
const autoReconnect = options?.autoReconnect !== false;
// 实现重试逻辑
let lastError: Error | null = null;
for (let attempt = 1; attempt <= retryCount; attempt++) {
try {
await this.connectWithTimeout(deviceId, timeout);
if (autoReconnect) {
this.autoReconnectDevices.add(deviceId);
}
return; // 成功
} catch (error) {
lastError = error as Error;
if (attempt < retryCount) {
// 指数退避重试
const delay = Math.min(1000 * Math.pow(2, attempt - 1), 5000);
await this.delay(delay);
}
}
}
throw new Error(`Failed to connect after ${retryCount} attempts: ${lastError?.message}`);
}
// 添加新的接口定义
interface BleStartScanOptions {
timeout?: number;
filterServiceUuid?: boolean;
filterManufacturerId?: boolean;
}
interface BleConnectOptions {
timeout?: number;
retryCount?: number;
autoReconnect?: boolean;
}

旧代码 (v14):

ble.startBLEScan([scanFilter], scanOptions);
ble.on('BLEDeviceFind', (devices: Array<ble.ScanResult>) => {
this.onDeviceFound(devices);
});

新代码 (v15+):

const bleScanner = ble.createBleScanner();
bleScanner.on('BLEDeviceFind', (scanReport: ble.ScanReport) => {
this.onDeviceFoundV15(scanId, scanReport);
});
bleScanner.startScan([scanFilter], scanOptions);
private cleanupScanner(scanId: string): void {
// 清理定时器
const timer = this.scanTimers.get(scanId);
if (timer) {
clearTimeout(timer);
this.scanTimers.delete(scanId);
}
// 移除活动扫描器
this.activeScanners.delete(scanId);
// 清理扫描器实例
this.bleScanners.delete(scanId);
this.scanCallbacks.delete(scanId);
}
private setupDeviceCleanupTimer(): void {
setInterval(() => {
const now = Date.now();
const staleThreshold = 60000; // 60秒
this.deviceLastSeenTime.forEach((lastSeen, deviceId) => {
if (now - lastSeen > staleThreshold) {
if (!this.connectedDevices.has(deviceId)) {
this.discoveredDevices.delete(deviceId);
this.deviceLastSeenTime.delete(deviceId);
}
}
});
}, 30000);
}
const bleService = BleService.getInstance();
// 启动扫描
bleService.startScan(
'scan-1',
(device) => {
console.log(`Found device: ${device.name}`);
},
{
timeout: 30000,
filterServiceUuid: true
}
);
// 扫描特定服务
bleService.startScan('service-scan', callback1, {
filterServiceUuid: true
});
// 扫描特定制造商
bleService.startScan('manufacturer-scan', callback2, {
filterManufacturerId: true
});
// 通用扫描
bleService.startScan('general-scan', callback3, {
timeout: 60000
});
// 带重试和自动重连的连接
await bleService.connectDevice(deviceId, {
timeout: 10000,
retryCount: 3,
autoReconnect: true
});
// 监听连接状态
bleService.addConnectionStateListener(deviceId, (state, prevState) => {
console.log(`Connection state changed: ${prevState} -> ${state}`);
});
  1. 扫描管理

    • 为每个扫描任务分配唯一ID
    • 设置合理的超时时间
    • 及时清理不需要的扫描器
  2. 设备缓存

    • 实现过期机制避免内存泄漏
    • 保留最近发现的设备信息
    • 支持快速重连
  3. 错误处理

    • 实现重试机制
    • 使用指数退避策略
    • 提供详细的错误日志
  4. 资源优化

    • 避免重复扫描
    • 合理设置扫描参数
    • 及时释放GATT客户端
  1. 扫描优化

    const scanOptions: ble.ScanOptions = {
    interval: 0, // 无延迟报告
    dutyMode: ble.ScanDuty.SCAN_MODE_LOW_LATENCY, // 低延迟模式
    matchMode: ble.MatchMode.MATCH_MODE_AGGRESSIVE // 激进匹配
    };
  2. 连接优化

    • 实现连接池管理
    • 预先发现服务缓存
    • 批量处理通知数据
  3. 内存管理

    • 定期清理过期设备
    • 限制缓存大小
    • 避免内存泄漏
  1. 扫描无结果

    • 检查蓝牙权限
    • 验证蓝牙是否开启
    • 确认过滤条件正确
  2. 连接失败

    • 增加重试次数
    • 延长超时时间
    • 检查设备是否在范围内
  3. 资源泄漏

    • 确保清理所有扫描器
    • 正确关闭GATT客户端
    • 清理事件监听器

API v15+的升级带来了显著的改进:

  • ✅ 支持多路并发扫描
  • ✅ 独立的资源管理
  • ✅ 更好的错误隔离
  • ✅ 灵活的配置选项
  • ✅ 增强的稳定性

通过遵循本指南,可以顺利完成从v14到v15+的迁移,充分利用新API的优势,提供更稳定、高效的BLE连接体验。

用 Claude Code 做「微信聊天日报」:用 chatlog + MCP,3 步跑通

把昨天所有群聊和私聊,一键变日报:top 关键词、重点人、待办、风险提醒,全自动。 本文手把手教你用 Claude Code + chatlog 把聊天数据榨干成洞察,还送上开箱即用的提示词。


  • 跑通流程:导出/解密 → 开 HTTP → 连接 Claude Code(MCP) → 一键出日报
  • 提示词模板:复制即用,覆盖拉取数据、分析聚合、生成日报(Markdown/HTML/图片)
  • 最佳实践:关键词雷达、敏感词预警、待办抓取、情绪曲线
  • 避坑清单:密钥、SIP、远程/本地连接、CSV/语音

chatlog 是一个开源工具,支持从本地微信数据库取数、自动解密、HTTP API、Webhook、以及 MCP Streamable HTTP,能直接被 Claude Code 当成「数据工具」来用。


Terminal window
# 安装(任选其一)
go install github.com/sjzar/chatlog@latest
# 或去 Releases 下载预编译版本

启动后在 TUI 里选择 解密数据开启 HTTP 服务(默认 http://127.0.0.1:5030)。 API 示例:

GET /api/v1/chatlog?time=2025-09-17&talker=wxid_xxx&format=json
GET /api/v1/contact
GET /api/v1/session

支持 YYYY-MM-DDYYYY-MM-DD~YYYY-MM-DD 时间窗,format 支持 json/csv/text

小贴士:需要先获取数据密钥/图片密钥;macOS 用户获取前需临时关闭 SIP(完事可再开启)。

2)把 chatlog 作为 MCP 服务器暴露给 Claude Code

Section titled “2)把 chatlog 作为 MCP 服务器暴露给 Claude Code”

chatlog 原生支持 MCP Streamable HTTP,启动 HTTP 后路径为:

GET http://127.0.0.1:5030/mcp

在 Claude Code 里添加远程 MCP:

Terminal window
# 语法来自官方示例:claude mcp add --transport http <name> <url>
claude mcp add --transport http chatlog http://127.0.0.1:5030/mcp

然后在 Claude Code 输入 /mcp 管理与使用工具。

MCP 是 Anthropic 推出的开放标准,支持 Streamable HTTP 传输、OAuth/Token 等认证,便于把外部数据接入 AI 助手。

备注:Claude 的远程 MCP 支持已逐步放开,也可以走本地 STDIO;具体以你账户与版本为准。


二、最省心的日报结构(可直接让 Claude 生成)

Section titled “二、最省心的日报结构(可直接让 Claude 生成)”
  • 今日概览:消息总量、活跃会话数、Top 群/私聊、峰值时段
  • 关键词雷达:TF-IDF/关键短语/话题聚类(合并同义词)
  • 任务抽取:含「明天/今晚/帮我/待办/安排」等表述的 To-Do 清单
  • 风险提醒:自定义敏感词/合规词库命中计数与上下文
  • 情绪曲线:按小时的情感分布(积极/中性/消极),标注异常峰值
  • 高价值片段:Top5 信息密度最高的对话摘录(附会话名/时间戳/消息 ID)
  • 附录:原始数据链接(API 可回跳到图片/文件/语音解密流)

三、Claude Code 提示词(复制即用)

Section titled “三、Claude Code 提示词(复制即用)”

用法:把 {} 内的变量替换;在 Claude Code 里直接粘贴即可。 下面既支持 MCP 方式(推荐),也给出 HTTP 直连 的方案(curl/脚本),方便你选择。

你现在连接了一个 MCP 服务器:name=chatlog,endpoint=http://127.0.0.1:5030/mcp。
1)列出 chatlog 提供的全部工具/资源,并简要说明用途。
2)检查是否有查询聊天记录、联系人、会话列表、媒体访问的能力。
3)如果有分页/limit 参数,告诉我默认值与最大值。

B. 拉取昨天所有消息(按会话聚合)

Section titled “B. 拉取昨天所有消息(按会话聚合)”
目标:生成“微信聊天日报({date})”。
数据拉取要求:
- 日期范围:{date} 00:00:00 ~ {date} 23:59:59(本机时区)
- 每个会话最多拉取 {per_chat_limit} 条,整体最多 {global_limit} 条
- 字段包含:time, talker, isChatRoom, sender, content, type, subType
- 若 message 有多媒体(图片/文件/语音),记录可访问 URL
动作:
- 调用 chatlog 的查询工具/HTTP API:/api/v1/chatlog?time={date}~{date}&format=json&limit={global_limit}
- 失败时自动重试 2 次,并记录失败会话
- 把结果按会话 ID 聚合,总结每个会话的消息数与活跃时段直方图
输出:生成一个 data.json(内含原始与聚合)

(API 形态参考 README;chatlog 会把媒体通过服务实时解密/转发为可访问路径)

对 data.json:
1)做中文分词+去停用词+同义词合并(如“OK/好的/行/可以”归并)。
2)输出 Top20 关键词(权重、示例句、在哪些会话频繁出现)。
3)基于规则+大模型,抽取待办(责任人、动词、截止时间、上下文链接)。
4)维护一个敏感词表(我会补充),做命中统计与上下文 3 句窗口。
输出:keywords.json、todos.json、alerts.json
请对每条消息做粗粒度情感标签(积极/中性/消极),并按小时聚合为曲线。
找出异常峰值(如 3σ 以上),列出对应会话与关键片段。
输出:sentiment_by_hour.csv、peaks.md(含解释)

E. 生成日报(Markdown + HTML + 图片)

Section titled “E. 生成日报(Markdown + HTML + 图片)”
把 {keywords.json, todos.json, alerts.json, sentiment_by_hour.csv} 组装为“聊天日报({date})”。
版式:
- 今日概览(要有数据表)
- 关键词雷达(词云图 + 每词 1 句总结)
- 待办清单(责任人/截止时间/链接)
- 风险提醒(命中词/次数/上下文跳转)
- 情绪曲线(折线图)
- 高价值片段 Top5(含会话名/时间戳)
要求:
- 先产出 Markdown(report.md),再渲染简洁 HTML(report.html,内联样式)
- 图片:生成词云、情绪曲线两张图,保存在 ./assets,写入 HTML 引用
- 最后给出“一键复制”区块(Markdown 版)

F. 快速 HTTP 直连(不用 MCP 也能跑)

Section titled “F. 快速 HTTP 直连(不用 MCP 也能跑)”
Terminal window
# 拉取昨天数据(JSON)
curl -G "http://127.0.0.1:5030/api/v1/chatlog" \
--data-urlencode "time=2025-09-17~2025-09-17" \
--data-urlencode "limit=5000" \
--data-urlencode "format=json" > data.json

API 参数与媒体解密/转发由 chatlog 提供。


1)关键词合并表:把常见口头禅对齐成同义词,避免词云涂抹。 2)任务抽取规则:正则 + few-shot,针对「帮我」「记得」「今晚前」等语气词优化。 3)角色画像:按发言密度/影响力为群成员画像,识别“信息源头”。 4)Webhook 增量:配合 chatlog 的 Webhook,在有新消息时推送到你的中间件,做增量更新。 5)CSV/语音:新版本对 CSV 与语音工具链做过修复/增强,关注 Releases Changelog。


  • 只处理你自己合法拥有的数据。遵守隐私与所在平台条款;项目本身也强调这一点。
  • macOS 获取密钥需临时关闭 SIP,完成后可再开启。
  • 远程 MCP 仍在逐步放开,本地 STDIO 更稳;留意你账号与版本的能力。
  • MCP 连接命令格式 以官方文档为准,claude mcp add --transport http <name> <url>
  • MCP 概念/认证:用 Streamable HTTP + 标准认证方式,团队部署更安全。

六、进阶:一键换源 & 团队共享

Section titled “六、进阶:一键换源 & 团队共享”
  • Docker 部署 chatlog 到 NAS,预先写死 CHATLOG_WEBHOOK_* 环境变量,方便全家桶联动。
  • 团队用 Claude Connectors/MCP 目录 管理多数据源,非技术同学也能点点就连。

把聊天当数据,用 Claude Code 把它炼成团队可执行的日报。 每天 3 分钟浏览,省下的时间去做真正重要的事。

使用 Claude Code 处理 Git 分支合并与冲突解决

在现代软件开发中,Git 分支合并和冲突解决是日常工作的重要组成部分。Claude Code 作为一个智能化的开发助手,能够显著提升处理这些任务的效率。本文将通过实际案例,详细介绍如何使用 Claude Code 处理各种合并场景。

Claude Code 在 Git 操作方面的主要优势:

  • 智能冲突分析:自动识别冲突原因并提供最优解决方案
  • 批量操作支持:同时处理多个文件的冲突
  • 代码语义理解:基于代码逻辑而非仅文本差异来解决冲突
  • 自动化测试验证:合并后自动运行测试确保代码正确性

示例 1:功能分支合并与简单冲突解决

Section titled “示例 1:功能分支合并与简单冲突解决”

你正在开发一个 React 应用,feature/user-auth 分支实现了用户认证功能,需要合并到 main 分支。两个分支都修改了 App.tsx 文件。

用户:请帮我将 feature/user-auth 分支合并到 main,并解决可能的冲突
Claude Code 响应:
我来帮您完成分支合并。首先让我检查当前状态:
[执行 git status 和 git branch -a]
[执行 git checkout main]
[执行 git pull origin main]
[执行 git merge feature/user-auth]
发现冲突在 src/App.tsx 文件中。让我分析冲突内容:
冲突区域:
- main 分支:添加了新的导航组件
- feature/user-auth 分支:添加了认证包装器
这两个更改是互补的,我将保留双方更改:
[自动编辑 App.tsx,智能整合两部分代码]
[执行 git add src/App.tsx]
[运行 npm test 验证]
[执行 git commit]
合并完成!所有测试通过。新的 App.tsx 现在包含了导航组件和认证功能。
  • Claude Code 自动识别冲突是功能互补而非互斥
  • 智能整合代码而非简单的文本拼接
  • 自动运行测试验证合并正确性

示例 2:复杂的多文件冲突与依赖关系处理

Section titled “示例 2:复杂的多文件冲突与依赖关系处理”

在一个 Node.js 微服务项目中,feature/database-migration 分支更新了数据库架构,而 main 分支同时添加了新的 API 端点。冲突涉及多个文件和包依赖。

用户:合并 feature/database-migration 到 main,这个分支修改了数据库模型
Claude Code 响应:
我将系统地处理这个复杂合并。让我先分析影响范围:
[执行 git diff main...feature/database-migration --name-only]
检测到以下文件有潜在冲突:
- package.json (依赖版本冲突)
- src/models/User.js (模型结构变更)
- src/controllers/UserController.js (API 逻辑冲突)
- migrations/20240315_user_table.sql (数据库迁移脚本)
开始合并处理:
1. 处理 package.json 依赖冲突:
- 保留较新版本的 mongoose: ^7.0.3
- 合并新增的 migration 工具依赖
[自动编辑 package.json]
2. 处理 User 模型冲突:
- 整合新字段定义
- 更新验证规则
- 保持向后兼容性
[智能重构 User.js]
3. 更新 UserController 以适配新模型:
- 调整查询逻辑
- 更新响应格式
[自动修改控制器代码]
4. 验证数据库迁移脚本:
- 确保迁移顺序正确
- 添加回滚脚本
[创建补充迁移文件]
[执行 npm install]
[执行 npm run migrate]
[执行 npm test]
所有冲突已解决,测试通过!建议在部署前进行集成测试。
  • 处理跨文件的依赖关系
  • 自动识别需要同步修改的关联文件
  • 生成必要的迁移和回滚脚本

示例 3:热修复分支的紧急合并与 Bug 修复

Section titled “示例 3:热修复分支的紧急合并与 Bug 修复”

生产环境发现严重 bug,hotfix/payment-calculation 分支包含修复,但与正在开发的 develop 分支有冲突,需要同时合并到 maindevelop

用户:紧急!需要将 hotfix/payment-calculation 合并到 main 和 develop,
这个修复了支付计算的严重 bug
Claude Code 响应:
理解这是紧急修复,我将优先确保正确性。执行以下操作:
阶段 1:合并到 main(生产环境)
[执行 git checkout main]
[执行 git merge --no-ff hotfix/payment-calculation]
检测到 src/services/PaymentService.js 有冲突:
- hotfix 修复了计算公式错误
- main 分支有格式化更改
保留修复并应用格式化:
[智能合并代码,保持修复逻辑的同时应用代码格式]
验证修复:
[创建针对性测试用例验证 bug 修复]
[执行 npm run test:payment]
阶段 2:合并到 develop(避免回归)
[执行 git checkout develop]
[执行 git merge hotfix/payment-calculation]
发现更复杂的冲突:
- develop 分支正在重构支付模块
- 需要将修复适配到新架构
智能适配修复到新架构:
[分析新架构,将修复逻辑移植到相应位置]
[更新相关的单元测试]
[添加回归测试防止 bug 重现]
阶段 3:验证和文档
[执行完整测试套件]
[生成修复报告]
修复已成功应用到两个分支!
关键变更总结:
- 修复了浮点数精度导致的计算错误
- 添加了 BigDecimal 处理金额计算
- 增加了边界条件测试覆盖
建议立即部署到生产环境。
  • 优先级处理和风险评估
  • 在不同代码架构间移植修复
  • 自动生成回归测试防止问题重现
用户:在合并前帮我预览可能的冲突
Claude Code:
[执行 git merge --no-commit --no-ff feature/branch]
[分析冲突文件并提供解决建议]
[执行 git merge --abort 撤销预览]
用户:这个文件的冲突应该接受哪边的更改?
Claude Code:
通过分析代码语义和测试覆盖,建议:
- API 路由文件:接受两边更改(功能累加)
- 配置文件:接受 feature 分支(新配置项)
- 样式文件:需要手动审查(视觉影响)
Claude Code 自动执行:
- 静态代码分析
- 单元测试运行
- 集成测试验证
- 代码覆盖率检查
- 性能基准测试

Claude Code 会识别二进制文件并提供选项:

  • 保留特定版本
  • 重新生成文件
  • 手动选择文件版本
Claude Code 支持:
- git reset --hard HEAD~1(未推送时)
- git revert -m 1 <merge-commit>(已推送时)
- 自动创建修复分支

Claude Code 能够:

  • 识别 submodule 版本冲突
  • 建议合适的 commit 版本
  • 更新 .gitmodules 配置
  1. 批量冲突解决:Claude Code 可以并行处理多个文件的冲突
  2. 智能合并策略:根据文件类型自动选择合并策略
  3. 缓存利用:利用 Git 的 rerere 功能记住冲突解决方案

Claude Code 将 Git 分支合并从繁琐的手工作业转变为智能化、自动化的流程。通过理解代码语义、自动化测试验证和智能冲突解决,显著提升了开发效率和代码质量。

关键优势:

  • 减少 80% 的冲突解决时间
  • 自动化测试保证合并质量
  • 智能建议避免常见错误
  • 完整的操作历史追踪

在实际项目中,建议将 Claude Code 整合到 CI/CD 流程中,实现更高程度的自动化。记住,虽然 Claude Code 很强大,但关键的架构决策仍需要人工审查和确认。

用 Claude Code 生成 Flutter Android 编译构建的 APK 命名规则

想要 APK 一眼就看懂:渠道、环境、版本、分支、时间戳。 不用手改。

让 Claude Code 自动把这套命名规则写进 android/app/build.gradle,打包就出成品。

我用的命名例子:测试A软件App-release-v1.0+1-main-20250918-102530.apk 包含:应用名 + 构建类型 + 版本名/码 + Git 分支 + 时间戳。

(Flutter 官方打包路径与 Gradle 配置参考见 docs,后面附了出处)


用 Claude Code:一条提示词,帮你自动改好 build.gradle

Section titled “用 Claude Code:一条提示词,帮你自动改好 build.gradle”

把下面这些可直接复制的提示词,喂给 Claude Code(任选其一):

「快速改名」Prompt

你是 Android/Flutter 构建工程师。请在我的 Flutter 项目
android/app/build.gradle (Groovy) 中加入:
1) getGitBranchName(),优先 git rev-parse,兜底读取 env GIT_BRANCH;
2) 解析 -Pdart-defines (Flutter --dart-define 的 Base64 列表),解码成 Map;
3) 生成 APK 名称:{AppName}-{buildType}-v{versionName}+{versionCode}-{gitBranch}-{yyyyMMdd-HHmmss}.apk;
4) 在对应 variant 的 assemble 任务 doLast 拷贝并重命名产物;
5) 打印“已生成重命名 APK: 路径/文件名”日志。
不要替换我已有配置,只追加必要代码,保持 Groovy 语法。

「带校验」Prompt

检查我当前的 android/app/build.gradle 与 AGP 版本:
- 如果直接设置 outputFileName 可能不生效,则使用“assemble 后拷贝改名”的方案;
- 兼容多渠道/多构建类型;
- 给出最少侵入的补丁,并解释每行代码的作用。

「CI 友好」Prompt

为 GitHub Actions 增强:
- 如果 git rev-parse 不可用,读取 $GITHUB_REF_NAME 作为分支名;
- 新 APK 放在 {project}/android/app/build/outputs/apk/{buildType}/ 里;
- 输出完整路径到控制台,供后续上传制品步骤使用。
只给最终可运行的 Groovy 代码块。

默认名字是 app-release.apk。 发给测试同学、上 CI 制品库,全都叫一个名。 找版本靠猜,非常痛苦。

而改名后,一眼知道

  • 是哪个分支出的包;
  • 版本号是多少;
  • 什么时候打的。

效率直接起飞。


  • 正常的 Flutter/Android 工程。

  • Android Gradle Plugin(AGP)版本任意,但改名方式会随 AGP 变更稳妥的做法是打完包再拷贝并改名(下文代码就是这样做)。 这是社区在 AGP 新 API 下的通行实践。

  • Flutter 的 --dart-define 参数会以 Base64 传给 Gradle 的 -Pdart-defines,我们可以在 build.gradle 里解码读取。


一键上手:把这段加入 android/app/build.gradle

Section titled “一键上手:把这段加入 android/app/build.gradle”

放在 android { ... } 之后的 applicationVariants 逻辑里即可(Groovy 语法)。 思路:拿到分支名 + 解码 --dart-define + 生成新文件名 + assemble 后拷贝重命名。 这种“拷贝改名”的方式跨 AGP 版本更稳定

// 读取 Git 分支名(CI 上建议兜底)
def getGitBranchName() {
try {
def branch = "git rev-parse --abbrev-ref HEAD".execute().text.trim()
return (branch ?: System.getenv("GIT_BRANCH") ?: "unknown").replace('/', '-')
} catch (Exception e) {
return System.getenv("GIT_BRANCH") ?: "unknown"
}
}
android {
// ... 你的原有配置 ...
applicationVariants.all { variant ->
variant.outputs.all { output ->
// 1) 解析 Flutter 的 --dart-define(Gradle 中以 -Pdart-defines Base64 形式传入)
def dartDefinesMap = [:]
if (project.hasProperty('dart-defines')) {
def raw = project.property('dart-defines')
def entries = []
if (raw instanceof List) entries.addAll(raw)
else if (raw instanceof String) entries.addAll(raw.split(','))
entries.each { item ->
try {
def decoded = new String(item.decodeBase64())
def kv = decoded.split('=', 2)
if (kv.length == 2) dartDefinesMap[kv[0]] = kv[1]
} catch (Exception ignored) { }
}
}
// 2) 你可传入 LOG_SHOW_PREFIX 等环境位
def appName = "测试A软件App"
def buildType = variant.buildType.name
def versionName = variant.versionName
def versionCode = variant.versionCode
def gitBranch = getGitBranchName()
def timestamp = new Date().format("yyyyMMdd-HHmmss")
def newApkName = "${appName}-${buildType}-v${versionName}+${versionCode}-${gitBranch}-${timestamp}.apk"
// 3) 打完当前 variant 的 assemble 后,拷贝并改名
variant.assembleProvider.get().doLast {
def outDir = output.outputFile.parent
copy {
from(output.outputFile)
into(outDir)
rename { newApkName }
}
println "✅ 已生成重命名 APK: $outDir/$newApkName"
}
}
}
}

说明:

  • Git 分支在本地用 rev-parse,在 CI 可通过 GIT_BRANCH 环境变量兜底。
  • 新版 AGP 的“直接改产物名”方案经常不稳定;拷贝改名是更通用的路线。
  • Flutter 的打包配置位置与打包方式,详见官方文档。

命令行示例:

Terminal window
# Release 包(示例环境变量)
flutter build apk --release \
--dart-define=LOG_SHOW_PREFIX=false \
--dart-define=CHANNEL=official

这些 --dart-define 会被 Flutter Base64 编码并注入 -Pdart-defines,上面的 Gradle 代码会解码拿到 Map 使用。


  • 直接改产物名偶尔失效 新版 AGP 的 Variant API 有改动。和社区经验一致,推荐 assemble 后“拷贝+改名”

  • Flutter 产物目录差异 部分情况下会出现 flutter-apk/ 目录或忽略 outputFileName 的现象。遇到就用拷贝改名兜底。

  • CI 是 detached HEAD git rev-parse 取不到分支,记得用环境变量兜底(如 GIT_BRANCH 或 CI 专用变量)。


Terminal window
flutter build apk --release \
--dart-define=LOG_SHOW_PREFIX=false \
--dart-define=CHANNEL=official
# 输出类似:
# android/app/build/outputs/apk/release/测试A软件App-release-v1.0+1-main-20250918-102530.apk

打包配置入口与目录结构可对照官方文档核实。


把命名写进流程,每个包都有“身份证”。 测试、回溯、追 bug,全都省事。 Claude Code 能把这些“烦人的小事”,变成一次配置,长期复用。

你觉得这套命名还要加什么信息?

Claude Code + ArkTS 开发鸿蒙 App:几分钟做出 BLE 低功耗蓝牙管理器

用 Claude Code 做“懂鸿蒙 ArkTS 的结对程序员”,在 ArkTS 里写出能扫描 / 连接 / 读写 / 订阅的 BLE 管理器,真机可跑、日志可查、问题可排。


引言|为啥用 Claude Code 搭 ArkTS?

Section titled “引言|为啥用 Claude Code 搭 ArkTS?”

做 BLE 低功耗蓝牙管理器的都懂:协议细碎、厂商千差、版本在飞。HarmonyOS/ArkTS 的文档又多又散,新人上手容易迷路。 我的做法很接地气:把官方文档“喂”给 Claude Code,让它在代码区当“看着手册写代码”的搭档;我们专注业务和调试节奏。

  • ArkTS 是鸿蒙原生首选语言,基于 TS 强化了静态检查与性能(官方定义与入门见这里 https://developer.huawei.com/consumer/cn/arkts/)。
  • BLE 在鸿蒙上走 @ohos.bluetooth.ble 模块,核心能力:扫描、广播、GATT 客户端/服务端。
  • 真正的数据交互走 GATT:读写特征、订阅通知。

这套组合拳的好处:减少瞎猜,直接照文档写;Claude Code 负责搜、比对、补全;我们控制架构、状态机与日志。


准备工作|把文档放进 Claude 的“胃”

Section titled “准备工作|把文档放进 Claude 的“胃””

0)目标背景 我们要用 ArkTS 做一个连接低功耗蓝牙设备(BLE)的 App

1)下载官方文档并在项目里建资料夹 到华为开发者官网拉 ArkTS & BLE 文档(含指南与 API 参考),离线放到项目 /harmony-os-docs/

2)写一份 CLAUDE.md(示例) 把 Claude Code 当队友,请它严格参考这些文档,再帮你产出 ArkTS 代码与说明:

# CLAUDE.md(节选)
You are my ArkTS + BLE copilot. Always quote and align with these docs:
### ArkTS
- @harmony-os-docs/cn/doc/harmonyos-guides/typescript-to-arkts-migration-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-coding-style-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-high-performance-programming.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-migration-background.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-more-cases.md
- @harmony-os-docs/cn/doc/harmonyos-guides/introduction-to-arkts.md
### BLE (HarmonyOS)
- @harmony-os-docs/cn/doc/best-practices/bpta-bluetooth-low-energy.md
- @harmony-os-docs/cn/doc/best-practices/bpta-reasonable-bluetooth-use.md
- @harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/br-development-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/gatt-development-guide.md
Rules:
- Prefer ArkTS idioms and coding style.
- Cite doc path + section when uncertain.
- If API differs by version, note the min API level & capability.

这一步的关键是约束 Claude:不熟就查;不确定就标注。ArkTS 风格指引、性能建议都能直接引用到代码审查里。


快速打样|ArkTS + BLE 的基本动作

Section titled “快速打样|ArkTS + BLE 的基本动作”

权限与能力entry/src/main/module.json5 里声明所需权限(示例,按你的 API/版本微调):

  • ohos.permission.USE_BLUETOOTH(启用蓝牙)
  • ohos.permission.DISCOVER_BLUETOOTH(扫描 / 配置)
  • ohos.permission.LOCATION(扫描关联位置申请,按 UX 规范前台说明)

模块入口 ArkTS BLE 走 @ohos.bluetooth.ble,扫描用事件 ble.on('BLEDeviceFind', cb) 获取结果;发现设备后创建 GattClientDevice 进行连接与 GATT 读写/订阅。

官方“最佳实践:BLE 扫描/连接状态管理”对业务层状态机也有建议,可参考落库。


代码落地|一个可用的 BLE 管理器(ArkTS)

Section titled “代码落地|一个可用的 BLE 管理器(ArkTS)”

启动 Claude Code,要求它实现:

Terminal window
> 写一个 `BleManager` 类,能**启用/扫描/连接/读写/订阅/断开**,并暴露状态与错误回调。
位置:`entry/src/main/ets/utils/BleManager.ets`
能力:启用/扫描/连接/读写/订阅/断开/状态管理/关键日志

代码生成结果

// entry/src/main/ets/utils/BleManager.ets
import ble from '@ohos.bluetooth.ble';
import { BusinessError } from '@ohos.base';
type Device = {
deviceId: string; // 如 "XX:XX:XX:XX:XX:XX"
name?: string;
rssi?: number;
advData?: Uint8Array;
};
type ConnectionState = 'idle' | 'scanning' | 'connecting' | 'connected';
export class BleManager {
private static _i: BleManager;
static I() { return this._i ??= new BleManager(); }
private state: ConnectionState = 'idle';
private devices = new Map<string, Device>();
private gatt?: ble.GattClientDevice;
// 业务侧订阅
onScan?: (list: Device[]) => void;
onState?: (s: ConnectionState) => void;
onNotify?: (opt: { service: string; characteristic: string; value: Uint8Array }) => void;
onError?: (e: { tag: string; err: unknown }) => void;
private setState(s: ConnectionState) {
this.state = s;
this.onState?.(s);
}
/** 启动扫描 */
async startScan() {
try {
if (this.state === 'scanning') return;
this.devices.clear();
// 监听扫描事件(BLEDeviceFind 返回一组 ScanResult)
ble.on('BLEDeviceFind', (results: Array<ble.ScanResult>) => {
for (const it of results ?? []) {
const id = it.deviceId;
this.devices.set(id, {
deviceId: id,
name: it.deviceName,
rssi: it.rssi,
advData: it.advData
});
}
this.onScan?.(Array.from(this.devices.values()));
});
// 开始扫描(可按需传 filter)
await ble.startBLEScan(); // 有版本差异时可用 ble.startScan(filters)
this.setState('scanning');
console.info('[BLE] scanning started');
} catch (err) {
this.onError?.({ tag: 'startScan', err });
}
}
/** 停止扫描 */
async stopScan() {
try {
await ble.stopBLEScan();
ble.off('BLEDeviceFind'); // 取消订阅
this.setState('idle');
console.info('[BLE] scanning stopped');
} catch (err) {
this.onError?.({ tag: 'stopScan', err });
}
}
/** 连接设备 */
async connect(deviceId: string) {
try {
await this.stopScan().catch(() => {});
this.setState('connecting');
// 创建 GATT 客户端并连接
this.gatt = ble.createGattClientDevice(deviceId);
await this.gatt.connect(); // 有的版本是 Promise,也有 callback 形态
this.setState('connected');
console.info(`[BLE] connected: ${deviceId}`);
} catch (err) {
this.setState('idle');
this.onError?.({ tag: 'connect', err });
}
}
/** 读特征值 */
async read(serviceUuid: string, charUuid: string): Promise<Uint8Array | undefined> {
try {
if (!this.gatt) throw new Error('Gatt not ready');
const value: Uint8Array = await this.gatt.readCharacteristicValue({
serviceUuid, characteristicUuid: charUuid
} as any);
console.info(`[BLE] read ${serviceUuid}/${charUuid} -> ${value?.length ?? 0}B`);
return value;
} catch (err) {
this.onError?.({ tag: 'read', err });
}
}
/** 写特征值(支持 Write/Write NoRsp 两种策略按需配置) */
async write(serviceUuid: string, charUuid: string, payload: Uint8Array, noRsp = false) {
try {
if (!this.gatt) throw new Error('Gatt not ready');
await this.gatt.writeCharacteristicValue({
serviceUuid,
characteristicUuid: charUuid,
value: payload,
writeType: noRsp ? 1 : 0 // 示例:按实际枚举替换
} as any);
console.info(`[BLE] write ${serviceUuid}/${charUuid} ${payload.length}B`);
} catch (err) {
this.onError?.({ tag: 'write', err });
}
}
/** 订阅通知/取消订阅 */
async subscribe(serviceUuid: string, charUuid: string, enable: boolean) {
try {
if (!this.gatt) throw new Error('Gatt not ready');
await this.gatt.setCharacteristicChangeNotification({
serviceUuid, characteristicUuid: charUuid, enable: enable
} as any);
if (enable) {
this.gatt.on('characteristicChange', (res: any) => {
const value: Uint8Array = res?.characteristic?.value ?? res?.value;
this.onNotify?.({ service: serviceUuid, characteristic: charUuid, value });
});
} else {
this.gatt.off('characteristicChange');
}
console.info(`[BLE] notify ${enable ? 'ON' : 'OFF'} for ${charUuid}`);
} catch (err) {
this.onError?.({ tag: 'subscribe', err });
}
}
/** 断开并清理 */
async disconnect() {
try {
if (this.gatt) {
await this.gatt.disconnect();
this.gatt.close?.();
}
this.gatt = undefined;
this.setState('idle');
console.info('[BLE] disconnected');
} catch (err) {
this.onError?.({ tag: 'disconnect', err });
}
}
/** 设备列表与状态 */
getState() { return this.state; }
getDevices() { return Array.from(this.devices.values()); }
}

为什么这样写?

  • BLEDeviceFind 事件拿扫描结果;停止扫描记得 off
  • 连接走 createGattClientDevice(deviceId) + connect(),与官方用法一致。
  • 交互走 GATT:读/写/订阅(通知)。方法名/参数在不同版本会有差异,以 API 参考为准;思路是对的:定位 service/characteristic → 读写/订阅
  • 统一错误回调与关键日志,方便线下抓包与线上埋点排障;最佳实践强调“合理使用蓝牙与前后台策略”。

小贴士:你的外设如果用自定义 GATT,提前把 Service/Characteristic UUID 与数据协议约定清楚,客户端开发会顺很多。


把 Claude Code 用出生产力的 5 个招

Section titled “把 Claude Code 用出生产力的 5 个招”

1)让它看文档再回答:在问题里贴上 @harmony-os-docs/... 路径,要求它回答带出处。 2)先要“设计稿”:让 Claude 先给「目录结构 + 状态机 + 事件流 + 关键 API 对应表」。 3)针对版本差异:要求输出“API 版本矩阵”,比如 startBLEScan vs startScan,哪里不确定标注“需在本机 SDK 验证”。 4)自动生成单测/桩:让它产出“模拟回调/虚拟通知”的快速用例,覆盖断线重连/权限拒绝等场景。 5)日志协议:约定 [BLE] 前缀 + 关键字段,一键搜集;结合“合理蓝牙使用”最佳实践设置扫描窗口与频率。


  • 权限:蓝牙 & 发现 & 位置三件套,按 UX 规范做前台授权提示。
  • 扫描拿不到设备:确认外设在广播、App 权限 OK;有版本用 startBLEScan,有用 startScan(filters),事件是 BLEDeviceFind
  • 读写失败:多半是 UUID 不对、属性权限不匹配、或没建立通知/指示。复核 GATT 设计。
  • 耗电/后台:扫描要控时长与频率,遵循“合理使用蓝牙”最佳实践。

验收标准(Acceptance Criteria 对照)

Section titled “验收标准(Acceptance Criteria 对照)”
  • 启用 BLE订阅事件扫描并返回列表连接指定设备、对指定 Service/Characteristic 读/写订阅通知优雅断开
  • 每个操作有错误反馈与关键日志多设备状态可管理
  • 以上均可通过 BleManager 的 API 验收(示例代码已实现)。

进阶思路|把“蓝牙助手”做成可复用组件

Section titled “进阶思路|把“蓝牙助手”做成可复用组件”
  • 抽出 Hook/Store:比如 useBle() 暴露状态、列表、命令函数。
  • 设备协议适配层:把 UUID 与解析协议写在 parsers/xxx.ts
  • 问题库:把抓到的错误码、边界场景沉淀成单测。
  • 文档化:让 Claude 生成 README + 故障排查表(FAQ)与“真机调试 checklist”。

结语|让 AI 当“查手册的搭档”,你当架构师

Section titled “结语|让 AI 当“查手册的搭档”,你当架构师”

把文档喂给 Claude Code,明确规则,让它按文档写 ArkTS 代码。你负责把控架构边界、状态与调试。 一个下午,一个可跑的 BLE 管理器就能起飞。你觉得呢?评论区聊聊你的设备型号和踩过的坑,我帮你补参数与调试策略。

Claude Code 母公司 Anthropic 完成100亿美元融资分析

Anthropic 是一家在人工智能领域异军突起的公司,其核心愿景是建立可信、可解释、可控制的 AI 系统,并以此引领一场“以安全为核心的竞赛”。与许多同行不同,Anthropic 的历史并非仅始于技术突破,而是源于一场深刻的哲学与治理分歧。自诞生之日起,它就将 AI 安全和伦理作为根本使命,并将其融入公司的法律架构、技术方法论与商业战略之中。

第一部分:安全为先的使命起源

Section titled “第一部分:安全为先的使命起源”

源于分歧的诞生:OpenAI 的哲学裂痕

Section titled “源于分歧的诞生:OpenAI 的哲学裂痕”

Anthropic 由一群前 OpenAI 员工于 2021 年创立,核心人物是兄妹二人——曾任 OpenAI 研究副总裁的 Dario Amodei 和曾任安全与政策副总裁的 Daniela Amodei。他们在 2020 年底与五名同事一同离开 OpenAI,原因在于对公司发展方向存在根本分歧。

Dario 等人对 OpenAI 在 2019 年从非营利组织转型为“利润上限”公司,以及随后与微软建立深度伙伴关系表示担忧。他们认为,这种转变使使命从“确保 AI 造福全人类”转向商业化与利润追求,将 AI 安全与伦理置于次要位置。Dario 曾表示,他们“能够预见人工智能即将呈指数级发展”,AI 公司亟需“制定一套价值观来约束这些强大的程序”。Anthropic 的成立,是对“为商业牺牲安全性”趋势的直接反制。

公益公司:将使命写入公司章程

Section titled “公益公司:将使命写入公司章程”

Anthropic 是特拉华州公益公司(Public Benefit Corporation, PBC)。这种法律结构要求在平衡股东利益的同时,将公益目标作为优先考量。对 Anthropic 而言,这一目标是开发“可靠、可解释和可控制的 AI 系统”。

为确保安全使命不受商业压力侵蚀,Anthropic 设立了“长期利益信托”(Long-Term Benefit Trust),该信托持有 T 类股票并可选举董事会大多数席位。此治理设计意在从法律层面将安全使命与股东财务利益适度隔离,回应传统公司治理在应对 AGI 潜在灾难性风险方面的局限。

以上举措从创始团队的离职到公司结构设计,构成了 Anthropic 的核心叙事:AI 的快速进步需要一种以使命为导向的治理范式。这既树立了“负责任”的品牌形象,也为担忧 AGI 商业化风险的人提供了可信选择。

Anthropic 的独特性不仅在治理结构,更在其技术方法论。其核心对齐路线旨在正面解决 AI 伦理对齐这一根本难题。

宪法式 AI(Constitutional AI):价值观的编码

Section titled “宪法式 AI(Constitutional AI):价值观的编码”

宪法式 AI(CAI)的目标是训练 AI 成为“有帮助、诚实且无害”。其核心是在训练中引入一份由人类撰写的“宪法”——一组原则,指导模型自我评估与修改输出。与传统在敏感问题上“回避/模糊”的处理不同,CAI 让模型在遵循原则的前提下更直接地回应请求,并在拒绝时说明理由。

训练过程分两阶段:监督学习阶段中,模型依据宪法原则批评并修正自身不当回答,生成更“无害”的数据集进行微调。

基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎

Section titled “基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎”

第二阶段为强化学习。Anthropic 采用 RLAIF(Reinforcement Learning from AI Feedback):模型生成两段回答,再按随机选定的宪法原则评估并选优;这些评估数据训练偏好模型,从而让最终策略更符合宪法原则。

相较常见的 RLHF,Anthropic 认为 RLAIF 更高效、更可扩展(减少人工标注依赖),且通过以自然语言编码目标提升可解释性与透明度,同时在一定程度上降低人类主观偏见的影响。批评者指出,宪法本身仍由人类撰写,难免主观性;同时减少人工干预也带来问责与监督的讨论。这种“自动化”与“人工控制”的张力,是理解 Anthropic 方法论的关键。

从研究到前沿模型:持续创新的时间线

Section titled “从研究到前沿模型:持续创新的时间线”

自 2023 年 3 月发布 Claude 1 以来,Anthropic 保持 4–8 个月一版的高速迭代:Claude 2(2023 年 7 月)、Claude 3 系列(2024 年 3 月)等,体现其既是研究机构,也是“前沿模型竞赛”的产品公司。

每代新模型在上下文、推理与多模态上持续跃迁:从 Claude 2 的 100K token 上下文,到 Claude 3 的 200K,再到 Claude 4 扩展推理模式接近 100 万 token。Claude 3 起支持图像与文本,多模态理解、编程、数学与逻辑推理能力显著增强。

自 Claude 3 系列起采用三档梯级架构:

  • Haiku:最快,面向实时与低延迟场景。
  • Sonnet:性能/速度平衡,覆盖通用任务。
  • Opus:旗舰级,面向复杂任务与高级推理。

2024 年 6 月的 Claude 3.5 Sonnet 在多项基准上超越更大的 Claude 3 Opus,显示出激进优化与产品化能力。

  • Artifacts:随 Claude 3.5 Sonnet 推出,可在专门窗口实时生成与预览代码、SVG、网站等。
  • Computer Use:在 3.5 Sonnet 测试版首发,AI 可操控虚拟电脑界面,模拟光标、点击、输入等跨应用多步骤任务。
  • Hybrid Dual-Mode Reasoning:在 Claude 3.7 与 Claude 4 中引入,可在快速响应与“扩展思考”之间动态切换,必要时调用工具(检索、执行代码)解决复杂问题。

这些能力推动 AI 从对话助理走向自主代理,也让 AGI 相关的现实风险更为迫近。

表 1:Claude AI 系列发布时间线与核心能力

Section titled “表 1:Claude AI 系列发布时间线与核心能力”
模型名称发布日期关键能力/特点
Claude 12023年3月初次发布,AI 助理原型
Claude 22023年7月行业领先的 100K token 上下文窗口
Claude 3 系列(Haiku, Sonnet, Opus)2024年3月梯级架构,文本+图像,多项基准表现卓越
Claude 3.5 Sonnet2024年6月编码与图表分析显著提升,推出 “Artifacts”
Claude 3.7 Sonnet2025年2月混合推理,支持快/深切换
Claude 4 系列(Sonnet 4, Opus 4)2025年5月100 万 token 上下文,改进 “Computer Use” 与 “Working Notes”

第四部分:安全 AI 的商业实践:成长、资本与伙伴关系

Section titled “第四部分:安全 AI 的商业实践:成长、资本与伙伴关系”

Anthropic 估值在 2024 年末超 610 亿美元,2025 年中 Series F 后达约 1830 亿美元。本轮由 ICONIQ 领投的 130 亿美元融资,强化其在企业、开发者与高端用户市场的领先地位。

营收同样快速:年化收入从 2025 年初约 10 亿美元增至同年 8 月超 50 亿美元。Claude Code 在三个月内实现超 5 亿美元年化收入,显示技术已有效转化为竞争力。

Anthropic 与亚马逊、谷歌建立深度合作:将 AWS 作为主要云供应商,并在 Amazon Bedrock 上提供模型;谷歌亦承诺数十亿美元投资与云基础设施支持。双方提供的 Trainium 与 TPU 等算力,使 Anthropic 能进行大规模前沿训练。

2025 年,CEO Dario Amodei 的内部备忘录被泄露,坦言公司为维持竞争力考虑向中东主权资本寻求投资,并承认其中“道德风险”。他写道:“我真的希望我们不必陷入这种境地,但我们身在其中。”以及“‘任何坏人都不应从我们的成功中受益’是一个很难经营企业的原则。”

这揭示了 Anthropic 的核心矛盾:在资本密集的竞赛中,即便具公益属性的治理结构,也难完全免于“竞相触底”的现实压力。

表 2:Anthropic 的主要融资轮次与估值

Section titled “表 2:Anthropic 的主要融资轮次与估值”
日期投资方投资金额估值
2022年4月FTX5.8 亿美元未公开
2023年9月/10月亚马逊、谷歌亚马逊承诺 40 亿美元(首轮 12.5 亿),谷歌承诺 20 亿美元(首轮 5 亿)超过 610 亿美元
2024年3月亚马逊27.5 亿美元(完成承诺的 40 亿)未公开
2024年11月亚马逊40 亿美元(总投资达 80 亿)未公开
2025年5月ICONIQ、Fidelity、Lightspeed 等130 亿美元1830 亿美元

第五部分:未来展望:AGI 与社会影响

Section titled “第五部分:未来展望:AGI 与社会影响”

Dario Amodei 对 AGI 的时间表极为激进,曾预测“奇点”可能在 2026 年到来。这种紧迫感解释了 Anthropic 对资本的巨大需求以及在竞争中的艰难权衡。

除以 CAI 设定技术基线外,Anthropic 也积极参与美国 AI 政策讨论。与 Palantir 的合作使 Claude 3/3.5 首次用于“机密环境”,既验证了能力与安全性,也触及其最具争议的应用场景之一。

Claude Code 等产品使软件工程的现代化与自动化成为现实,亦将推动医疗、教育、金融等行业变革。挑战仍在:如何让系统在复杂情境中稳健地理解并应用伦理原则,如何建立监管与问责框架、重塑公众信任。

Anthropic 以使命分歧为起点,通过公益公司与信托治理将安全嵌入企业 DNA;其快速迭代与商业增长表明,“安全承诺”可成为强有力的市场差异化。然而,泄露备忘录揭示了资本与理想之间的持续张力。

开发强大 AI 与确保其安全并非两条平行线,而是一枚硬币的两面。随着 Anthropic 沿这条复杂道路前行,它不仅将影响 AI 的技术版图,也迫使我们思考:在一个由 AI 驱动的世界里,我们愿为力量牺牲多少原则。

Claude Code vs Codex CLI 谁更适合你的日常开发?

Claude Code 更成熟,工程化能力强(子代理、Slash 命令、Hooks);Codex(GPT-5 High) 速度快、跟指令更贴、话少事快。两者并用,效率拉满。

这段时间,社区里关于 Codex CLIClaude Code 的讨论又热起来了。有人实测用 Cloudflare Worker + Telegram 做了个小工具:监控 Codex 的 GitHub Releases,有新版本就推送到 Telegram。结果很有意思——两家都能“跑通”,体验却各有侧重。

我把要点梳理成一篇「上手就能用」的对比,给你一个清晰的选择。


  • 工程化/扩展性:Claude Code 胜,子代理(Subagents)自定义 Slash 命令Hooks 三件套非常成熟。
  • 执行节奏/规划视图:Codex 的计划面板信息量大;Claude Code 现在默认只显示「当前任务」,流更顺。
  • 指令跟随:Codex(GPT-5 High)对目录结构等显式约束更“听话”;实测里它按 /src 多文件输出,Opus 则把代码塞进 worker.js
  • 抓数策略:同题不同解——Codex 直接用 Atom Feed;Claude Code 调用 GitHub API,都能跑通。
  • 可观测性:Codex 有 /status 看 Token、Ctrl+T 查会话记录(社区也在补齐转存/持久化)。
  • 速度&成本感知:实测单次任务 Token:GPT-5 ≈ 90k、Opus ≈ 50k;因为 GPT-5 每 Token 更便宜,整体成本未必更高——但以当次任务为样本,仅供参考
  • 文档生态:Claude Code 官方文档系统化,Codex 文档在加速完善中。

OpenAI 把 Codex 做成“跑遍全场”的开发代理:CLI、IDE 扩展、云端、GitHub 一体化;用 ChatGPT 账号打通状态,同一任务在本地与云端来回切。VS Code 扩展也上线了,不用折腾 API Key,直接配合云端沙箱执行。

这波更新节奏很快,各媒体与社区都在跟进评测。


正面刚:一次 Cloudflare Worker 实测的关键发现

Section titled “正面刚:一次 Cloudflare Worker 实测的关键发现”

1) 工程化能力:Claude Code 更像“可编排的开发平台”

Section titled “1) 工程化能力:Claude Code 更像“可编排的开发平台””
  • 子代理(Subagents):为任务拆角色、拆上下文,单独的系统提示 + 工具 + 独立上下文,适合「信息采集/方案评审/脚手架生成」分工流。
  • Slash 命令:通过 MCP 自动发现并暴露命令,项目里可以沉淀出“团队级”操作手册。
  • Hooks:在生命周期节点(会话开始/工具执行前后等)强制执行脚本,保证「Lint→Test→Commit」这类动作必达,不再靠模型“心情”。

一句话:要规模化和可控性,Claude Code 的“可编排”优势非常明显。

2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手”

Section titled “2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手””
  • Codex 简洁跟指令更紧,少寒暄,动作快。
  • Claude Code TUI 更成熟,Diff 视图清晰;默认只看“当前任务”,避免被长计划打断思路。
  • 一次测试里,Codex 虽选了“自动运行”,但权限确认仍较频繁;Claude Code 的交互更稳定。

3) 目录与架构遵从:Codex 更爱“照图施工”

Section titled “3) 目录与架构遵从:Codex 更爱“照图施工””

给了同样的项目模板与目录规范:

  • Codex(GPT-5 High)/src 多文件输出;
  • Claude(Opus 4.1) 聚合成单文件 worker.js。 如果你非常在意目录约束,Codex 的“教条性”反而是优点。

4) 数据抓取策略:两条路都通向罗马

Section titled “4) 数据抓取策略:两条路都通向罗马”
  • Codex:抓 Atom Feed,天然结构化。
  • Claude Code:打 GitHub API,字段齐全。 两者都能拿到写 Telegram 所需的信息,只是默认拼装的“信息密度”略有差异。
  • /status 查看 Token 消耗,Ctrl+T 看对话记录;社区还在提 PR 做会话转存与可追溯性增强。

选型建议:不同人群的“最优解”

Section titled “选型建议:不同人群的“最优解””

选 Codex

  • 跟指令更紧、少废话、默认就“能干活”;
  • VS Code 扩展+云沙箱一体化,上手快、环境干净。

你要「可编排、可治理、可沉淀」

Section titled “你要「可编排、可治理、可沉淀」”

选 Claude Code

  • 子代理拆工、Slash 命令沉淀 SOP、Hooks 固化流程;
  • 团队复用度高,适合复杂项目与多人协作。

两者一起上

  • Codex 快速拉起功能、验证方案;
  • Claude Code 固化流程、接驳 CI、沉淀团队命令库。

维度Codex(GPT-5 High)Claude Code(Opus 4.1 为例)
上手速度快、简洁、话少事快略慢,但交互细节更稳
指令遵从(更贴目录/约束)偶有“自作主张”整合输出
工程化CLI + IDE + 云一体,正在加速子代理 / Slash / Hooks 成熟完善
可观测性/statusCtrl+T、社区在完善Diff 视图成熟,任务聚焦更顺手
数据抓取偏向现成结构化源(如 Atom)偏向 API 直连,字段灵活
文档生态在完善,节奏加快体系化强、示例多
典型场景快速建功能、跑实验复杂项目、流程治理、团队沉淀

(表中对比基于公开文档与一次真实测试记录,细节随版本更新可能变化。)


实操建议:把它变成你的日常流水线

Section titled “实操建议:把它变成你的日常流水线”

工作流范式(可直接照抄思路)

  1. Codex 拉起最小可用版本(MVP),确认接口、目录、依赖。

  2. 切到 Claude Code

    • 设一个 “采集子代理” 专抓上下文(文档、API 约束、依赖风险)。
    • Slash 命令 固化常用动作(/lint、/test、/gen-release-notes)。
    • Hooks 强制 CI 前置动作(预提交校验、单测、语义化版本、变更集生成)。
  3. 回到 Codex 做小步快跑的功能追加与回归测试,/status 盯 token。

小贴士:Codex 的“少废话”很适合你边想边改;Claude 的“工程化”很适合你总结为团队资产。


这不是“谁替代谁”的故事。Codex 更像短跑健将Claude Code铁三全能。 用对场景,你会发现两者正好互补。

你更偏向哪种风格?你觉得呢?欢迎留言,我们把这份对比做成持续更新的「选型手册」。

不想 Claude Code 把代码喂给 Anthropic?参考这份隐私设置清单

省流版个人账号(Free/Pro/Max)去 claude.ai → Settings → Data & Privacy 把“用于改进模型”关掉;组织/API 默认不用于训练,想再稳,给 Claude Code 配 零数据保留(ZDR)API 密钥;本机把 Statsig 遥测/Sentry 错误关了,不要用 /bug 上传会话,定期清理本地缓存。


Anthropic 正在调整消费者产品(含 Claude、Pro、Max,以及用这些账号登录的 Claude Code)的数据策略:你可以选择是否允许聊天与编码会话用于训练;选择 允许 时,保留期最高 5 年不允许 时,服务端最长保留 30 天用于运行与合规。这个选择只影响新建或恢复”的会话(不会倒查沉睡历史)。入口就在隐私设置里,可随时更改。

想了解行业解读与时限提醒,可看 The Verge / Tom’s Guide 的整理。


目标:不让你的聊天与代码被用于训练。

怎么做

  1. 打开:claude.ai → Settings → Data & Privacy
  2. 关闭 “Use my chats/coding sessions to improve Claude”(类似字样)。
  3. 记住:只对新建/恢复的会话生效;删除的对话不会被用于训练。你以后也能改回,但已用于训练的数据不可回退

保留规则(你关闭训练的情况下):后端存储最多 30 天


② 团队 / 企业 / API(商业产品)

Section titled “② 团队 / 企业 / API(商业产品)”

默认就更稳:Anthropic 的商业产品(Claude for Work、Anthropic API、Claude Gov 等)默认不会把你的输入/输出用于训练

更稳一层(推荐):签 Zero Data Retention(ZDR,零数据保留) 协议,并在 Claude Code 使用组织的 API Key。ZDR 目前只适用于 Anthropic API 及使用你组织 API Key 的产品(包括 Claude Code)

默认保留期:API 侧30 天自动删除(如未约定 ZDR,且法律/风控无额外要求)。


③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离”

Section titled “③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离””
  • AWS Bedrock:明确不会使用你的输入/输出来训练模型;且条款中对第三方模型(如 Anthropic)也有限定。
  • Google Vertex AI:有专门的数据治理与缓存说明,企业可按需配置以达成合规与最小化保留(注意阅读缓存与治理细节)。

这层“云侧隔离”适合强合规行业,把调度、日志、KMS 等都放在云账号里统一治理。


下面是“不外传”实践里最容易忽略的点,做完就安心许多。

A. 关遥测与错误上报(保留运行指标不上传)

Section titled “A. 关遥测与错误上报(保留运行指标不上传)”

官方文档支持的环境变量(跨平台示例):

Terminal window
# 关闭 Statsig 遥测(不含代码/文件路径)
export DISABLE_TELEMETRY=1
# 关闭 Sentry 错误上报
export DISABLE_ERROR_REPORTING=1
# 关闭 /bug 命令(不含代码/文件路径)
export DISABLE_BUG_COMMAND=1
# 关闭所有非必要的网络请求(更彻底)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

也可在 ~/.claude/settings.jsonenv 节点写入,项目里用 .claude/settings.local.json 覆盖。

"env": {
"DISABLE_TELEMETRY": "1",
"DISABLE_ERROR_REPORTING": "1",
"DISABLE_BUG_COMMAND": "1",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
}

B. 避免把完整会话打包上送(别随手 /bug

Section titled “B. 避免把完整会话打包上送(别随手 /bug)”
  • 官方建议/bug 提交问题;它会把上下文打包给 Anthropic 做诊断,所以涉及敏感仓库/代码时尽量别用
  • 社区有人汇总了可禁用 /bug 的环境变量DISABLE_BUG_COMMAND=1),属“非官方/可能变更”,仅供参考。
  • 官方说明:客户端本地可缓存会话最多 30 天以便恢复(可配置)。在敏感环境建议定期清理 ~/.claude/ 并把缓存期降到最低。
  • 社区曾反馈过 .claude.json 留存对话片段 的 issue,属于行为反馈而非官方承诺;建议把 .claude/ 納入你的安全基线与备份排除清单。

一套“万无一失”的组合拳(可直接抄)

Section titled “一套“万无一失”的组合拳(可直接抄)”

个人账号(必须做)

  1. 关“用于改进模型”。
  2. 定期清 ~/.claude/,误用 /bug 前先做脱敏
  3. 设:DISABLE_TELEMETRY=1DISABLE_ERROR_REPORTING=1

团队/企业(强烈推荐)

  1. 只用组织 API Key 登录 Claude Code;若可行,签 ZDR
  2. 服务器与 CI/CD 里统一注入禁传变量(上面 A)。
  3. 优先走 Bedrock/Vertex 通道,落地云侧 DLP/KMS 与访问审计。

  • 误区 1:“我把历史对话删了,就不会被训练。” → 删除后不会用于训练,但是否被训练过取决于你当时的设置;已训练不可逆

  • 误区 2:“我用 Claude Code 就等于企业级保护。” → 取决于你用的账号与密钥。个人账号登录的 Claude Code 仍受个人条款约束。

  • 误区 3:“走 Bedrock/Vertex 就什么都不用管了。” → 还需要你自己配置权限边界、密钥管理、日志策略与缓存治理。文档写得很清楚。


数据隐私从来不是“全开/全关”的开关,而是一整套习惯配置到位 + 工具到位 + 团队纪律到位。把上面的清单一次性走完,你的代码与对话基本就不会被分享给 Anthropic 用于训练,同时也能保住团队的合规边界

Claude Code 1.0.9x:权限规则、记忆编辑、Vertex 全局端点等多项优化

1.0.90~1.0.97 这几次快节奏小更新,把“权限规则校验、记忆编辑、Vertex 全局端点、代理兼容、热加载设置、待办清单”等痛点一口气打通,工程师的执行闭环更顺手了。


这两周 Claude Code 连着更了好几个小版本。看似“微调”,但都是日常高频操作:写权限规则不报错了、记忆文件能直接改、Vertex 走全局端点更稳、Windows 贴图更顺手、设置改了马上生效。下面用上手视角,带你一条条看影响最大的点,并给出可复制的用法。


  • 1.0.97/doctor 支持权限规则语法校验并给出修正建议。不再因为一个括号或通配写错卡半天。

  • 1.0.94

    • Vertex 支持全局端点(global endpoint),跨区可用性更高。
    • /memory 现在可以直接编辑所有导入的记忆文件,组织团队指令更轻松。
    • SDK 增加“自定义工具作为回调”能力(in-process MCP / 回调钩子),更易把你自己的工具链接入代理循环。
    • 新增 /todos,可列出当前任务清单,配合“计划—执行—核对”闭环更自然。
  • 1.0.93

    • Windows 新增 Alt + V 从剪贴板粘贴图片,记录报错截图、白板草图更快。
    • 支持 NO_PROXY 绕过指定主机/网段(结合 HTTP(S)_PROXY),企业网络/自建代理更好配。
  • 1.0.90设置文件改动立即生效,无需重启。注意:hooks 有例外(下节详解)。

版本节奏很快,确认自己已跟上:

Terminal window
npm i -g @anthropic-ai/claude-code
claude update
>
claude -v # 应显示 1.0.9x+

01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)

Section titled “01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)”

权限是 Claude Code 的刹车和油门。以前写 allow/deny 容易踩坑,现在直接:

/doctor

它会校验语法指出问题、并给出修正建议。例如你写了:

{
"permissions": {
"allow": ["Bash(git commit:*)", "Edit", "ReadFile:*"],
"deny": ["Bash(rm -rf *)"]
}
}

/doctor 能提示通配是否正确、是否被更高优先级规则覆盖等。这对团队统一“可执行命令白名单”很关键。

顺带补一嘴安全边界:社区曾反馈过deny 规则失效命令链路绕过等案例,写规则时别贪心,先最小权限再逐步放开。


02 团队记忆随手改:/memory 直接编辑(1.0.94)

Section titled “02 团队记忆随手改:/memory 直接编辑(1.0.94)”

现在 /memory 不止能看加载了哪些 CLAUDE.md,还能直接打开并编辑这些文件(包括用 @path/to/file 导入的多级记忆)。 好处有三: 1)一处修订,全队生效(把项目约定写进仓库)。 2)模块化(用 @导入 分层管理:架构、Git 规范、脚手架命令等)。 3)即时迭代(配合下节热加载)。 命令:

/memory # 查看&编辑项目/个人/组织级 CLAUDE.md

官方文档已把导入、多层查找、组织级路径等机制写清楚,建议直接落到你们仓库。


03 Vertex 全局端点:跨区更稳、更省心(1.0.94)

Section titled “03 Vertex 全局端点:跨区更稳、更省心(1.0.94)”

如果你走 Google Vertex AI 计费,现在可使用全局端点来动态路由到可用区,提升可用性与稳定性。这对“夜间长任务”“提审前 CI 一把过”很香。文档也明确了 Claude Code 支持 Vertex 的全球与区域端点

小贴士:不同区域可用的具体模型/别名不完全一致,切换时注意 endpoint 与 model 的映射关系。


04 设置热加载,但 Hooks 需确认(1.0.90)

Section titled “04 设置热加载,但 Hooks 需确认(1.0.90)”

1.0.90 起,多数设置改了就生效,不用重启会话。这让调参—再试的反馈环更快。 例外Hooks(执行前/后的自定义钩子)不会立刻替换。当前会话会使用启动时的快照,你修改后需要在 /hooks 菜单里review & apply。这个细节别忽略。


05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)

Section titled “05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)”
  • NO_PROXY 支持:在复杂内网/多跳代理下,给部分主机或网段直连,旁路掉全局代理。与 HTTP_PROXY/HTTPS_PROXY 一起配,常见的 CI、堡垒机场景更顺。
  • Windows Alt + V 贴图:终端里直接贴图,更适合把错误截图/表格塞进上下文,加速“定位—修复”。

06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)

Section titled “06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)”

TypeScript SDK 支持进程内 MCP 服务器自定义工具,你可以把“项目构建、Lint、发布前检查、灰度回滚”等动作,变成 Claude 的“工具调用”。配合回调/钩子,把成功/失败处理审计记录串起来。


1)体检权限

/doctor
/permissions # 查看当前 allow/deny
/config # 打开设置面板

2)记忆分层

CLAUDE.md
@docs/architecture.md
@docs/git.md
@~/.claude/personal-rules.md
/memory # 直接编辑以上文件

3)Vertex 全局端点(示意) 在环境中改为 global endpoint(按照 GCP 文档的格式与可用模型来):

具体端点与地区支持以官方文档为准。

4)企业代理

Terminal window
export HTTPS_PROXY=http://user:pass@proxy.example.com:8080
export NO_PROXY=localhost,127.0.0.1,.corp.example.com

这轮 1.0.9x 的更新没有喧嚣,但每一项都在“落地效率”上给你加分权限更稳、记忆更易管、网络更可用、设置更顺手、任务有清单。 如果你准备把“代理式开发”推向团队协作层面,先把权限与记忆这两件事做扎实,收益立竿见影。

你觉得这波更新里,哪一条最有用?留言区聊聊你的实践。

Claude Code CLI Config 配置攻略

想把 Claude Code 用出“顺手、稳、快”的感觉? 一份 claude config 命令速查 + 常用场景模板,拎包就走,团队立刻对齐。

这篇更偏实战手册:命令能直接贴,配置能直接用,出问题能迅速排。 关键出处都给你标好,方便你转给同事背书。


  • 省时:模型、权限、环境变量一次设好,少来回;
  • 省心:企业策略、项目配置、个人习惯各就各位,不打架;
  • 更安全:把敏感文件和危险命令彻底拉黑,避免“手滑”。

最常见就这几条(支持 -g/--global 设全局):

Terminal window
# 查看所有配置
claude config list
# 查某一项
claude config get <key>
# 改某一项
claude config set <key> <value>
# 往“列表型配置”追加/删除
claude config add <key> <value>
claude config remove <key> <value>
# 例如:设全局主题 & 项目默认模型
claude config set -g theme dark
claude config set model claude-sonnet-4-20250514

官方文档明确列了这些子命令与 -g/--global 的作用域说明。


二、配置文件放哪?谁说了算?

Section titled “二、配置文件放哪?谁说了算?”

层级与优先级(从高到低)

  1. 企业管控策略(不能被覆盖)
  • macOS:/Library/Application Support/ClaudeCode/managed-settings.json
  • Linux/WSL:/etc/claude-code/managed-settings.json
  • Windows:C:\ProgramData\ClaudeCode\managed-settings.json
  1. 命令行参数(本次会话临时覆盖)

  2. 项目本地:.claude/settings.local.json(个人、git 忽略)

  3. 项目共享:.claude/settings.json(团队共用)

  4. 用户全局:~/.claude/settings.json(个人默认)

官方“Settings”页把路径、优先级和样例都写清楚了,发给 IT 也能对上术语。


三、最常用的 8 个配置,一把梭

Section titled “三、最常用的 8 个配置,一把梭”
Terminal window
claude config set -g theme dark
claude config set -g verbose true

themeverbose 都是内置键;verbose 默认 false。


2) 默认模型(四种方式,按优先级生效)

Section titled “2) 默认模型(四种方式,按优先级生效)”
  • 启动参数:claude --model <alias|name>
  • 会话内:/model sonnet
  • 环境变量:export ANTHROPIC_MODEL=opus
  • 设置文件:"model": "claude-sonnet-4-20250514"

官方给了优先级顺序与示例,团队写在 README 里就不再争。

建议组合(稳妥实操):

Terminal window
# 全局默认:均衡
claude config set -g model claude-sonnet-4-20250514
# 某些项目需要极致表达
claude --model opus

3) 禁用非必要流量(隐私/内网一把过)

Section titled “3) 禁用非必要流量(隐私/内网一把过)”
Terminal window
# 三选一:settings.json、全局 env、临时 env
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
echo 'export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1' >> ~/.zshrc
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 claude

该变量等价于同时设置:DISABLE_AUTOUPDATERDISABLE_BUG_COMMANDDISABLE_ERROR_REPORTINGDISABLE_TELEMETRY


4) Git 提交别带“Co-authored-by Claude”

Section titled “4) Git 提交别带“Co-authored-by Claude””
Terminal window
claude config set includeCoAuthoredBy false

includeCoAuthoredBy 为官方支持键,默认 true。


5) 任务完成响铃(长任务不盯屏)

Section titled “5) 任务完成响铃(长任务不盯屏)”
Terminal window
claude config set -g preferredNotifChannel terminal_bell

官方“Terminal configuration”给的推荐写法,macOS 记得开启通知权限。


6) 项目权限白/黑名单(强烈建议配置)

Section titled “6) 项目权限白/黑名单(强烈建议配置)”
.claude/settings.json
{
"permissions": {
"allow": [
"Bash(npm run lint)",
"Bash(npm run test:*)",
"Read(~/.zshrc)"
],
"deny": [
"Bash(curl:*)",
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)"
]
}
}

permissions.allow/ask/deny 是新机制,替代旧的 ignorePatterns;适合彻底屏蔽 secrets。


7) 状态栏(Status Line):展示模型、分支、成本提示

Section titled “7) 状态栏(Status Line):展示模型、分支、成本提示”
.claude/settings.json
{ "statusLine": { "type": "command", "command": "~/.claude/statusline.sh" } }

也可直接 /statusline 让 Claude 生成脚本雏形。


8) 企业统一策略(安规落地必备)

Section titled “8) 企业统一策略(安规落地必备)”
  • 通过 managed-settings.json 强制禁用某些权限/工具;
  • 可关闭“绕过权限模式”,确保每次敏感动作都要确认:
{
"permissions": {
"defaultMode": "acceptEdits",
"disableBypassPermissionsMode": "disable"
}
}

企业策略路径与“权限管控”开关均在官方文档中有说明。


四、团队落地 5 个“即插即用”模板

Section titled “四、团队落地 5 个“即插即用”模板”
Terminal window
# 关闭非必要流量、错误上报、/bug、自动更新
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
claude config set -g theme dark
claude config set -g verbose true
claude config set -g model claude-sonnet-4-20250514

变量含义与效果见“Environment variables”表。


模板 B|前端项目(安全白名单)

Section titled “模板 B|前端项目(安全白名单)”
Terminal window
claude config add permissions.allow "Bash(npm run dev)"
claude config add permissions.allow "Bash(npm run test:*)"
claude config add permissions.deny "Read(./.env)"
claude config add permissions.deny "Read(./secrets/**)"

允许测试相关命令,拒绝读取 .envsecrets


Terminal window
# 默认均衡;出现复杂需求临时切 Opus
claude config set -g model claude-sonnet-4-20250514
# 会话内再 /model opus

模型切换优先级按“Model configuration”执行,CLI > 环境变量 > 设置文件。


Terminal window
claude config set -g preferredNotifChannel terminal_bell

终端响铃更适合 CI/脚手架生成场景。


Terminal window
claude config set includeCoAuthoredBy false

团队不想在提交信息里出现 AI 共著时,统一关掉。


五、你可能会踩的坑(顺手化解)

Section titled “五、你可能会踩的坑(顺手化解)”
  • “为啥我改了还不生效?” 看层级。企业策略 > CLI 参数 > 项目 local > 项目共享 > 用户。很多时候被上层覆盖了。

  • “我想一次性关掉所有遥测/上报/自动更新”CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,一键覆盖四个子开关。

  • “设置文件写哪里?” 用户:~/.claude/settings.json;项目:.claude/settings(.local).json;企业:系统级 managed-settings.json 三平台路径如前。


把 Claude Code 配好,其实就三步:

先定“谁说了算”(层级与策略) → 再定“能干啥”(权限白/黑名单) → 最后定“怎么干”(模型、输出、通知、环境变量)。

配好了,它就像你团队的“AI 开发内功心法”: 更稳、更快、更安全。一套模板,千人千面,落地不费劲。


  • 官方 CLI & 配置:Settings、Model、Terminal、StatusLine、CLI Reference(命令/旗标)
  • 环境变量含义(含一键禁用非必要流量的等价项)

  • 你的团队更需要“严格权限”还是“高速迭代”?怎么在两个目标间做平衡?
  • 你会把哪 3 条配置写进企业策略,强制全员?你觉得呢?

Claude Code 最佳实践:原型开发法

先用 Claude Code 快速“跑通原型”,把需求打磨清楚;再回到工程化设计与实现,把质量与稳定性做到位。效率和质量,都要。


做产品最难的,不是写代码。 是把“到底要做啥”讲清楚。

所以我更推荐这套两段式节奏: 第一版只做原型,第二版认真做工程。 Claude Code 很适合这个打法:一边和你在终端里并肩作战,一边把杂活脏活先铺开,再回头精修。


阶段 1:只做原型,追求“跑通”

Section titled “阶段 1:只做原型,追求“跑通””
  • 目标:把功能跑起来,让需求说人话。
  • 不关注:设计、性能、安全、代码质量。
  • 做法:抛弃型代码,完全交给 AI 主导,快速探索可行路径(类似“Spike/Throwaway Prototyping”的思路)。

为什么这样干? 因为很多模糊点,只有跑起来,才会暴露。截图、动图、可点的原型,比十页需求文档有用多了。

Claude Code 在这一步的优势:

  • 直接在本地项目里读、改、跑代码,对话即行动。
  • 可把高频动作做成 Slash Commands,一键复用,比如“起后端 + 假数据 + 本地跑”。

边界提醒:如果你用的是个人订阅版本,近期 Anthropic 有数据用于训练的选择机制,涉及 Claude Code 会话。做公司项目原型前,先确认隐私设置


  • 触发点:需求基本确定,范围(Scope)稳定。
  • 输出物:数据库 Schema、API 协议、状态管理、模块边界、测试策略等。
  • 节奏:人主导,AI 辅助。由你下设计锚点,再让 AI 按图施工。

Claude Code 在这一步的用法:

  • 让它按你的设计搭脚手架、补样板、补测试。
  • 在 PR/Issue 里 @claude 自动出 PR、修小问题(GitHub Actions 集成)。
  • 将工程约定写进 CLAUDE.md / Slash 命令,让 AI 按项目规则执行。

安全/非功能建议:把安全、性能、可运维列为“技术 Enablers”,在二阶段逐步纳入 DoD(完成定义)。必要时先做 Spike 验证。


  • 需求已经被验证过(老功能重做、明确的对标产品)。
  • 风险主要在工程实现而非产品定义。 这时可直接进阶段 2 设计与实现,Claude Code 作为脚手架 + 执行工具上场。

落地手册:我在日常开发里的推荐用法

Section titled “落地手册:我在日常开发里的推荐用法”

下面 4 个常见场景,给到原型 → 工程化的实操清单。

例子 A:增长实验落地页(Next.js)

Section titled “例子 A:增长实验落地页(Next.js)”

原型版(半天搞定)

  • 让 Claude Code 生成最小页面、埋点、表单回传到 /api/echo。
  • 假数据 + 简单 A/B 参数切换先跑起来。
Terminal window
# 原型:生成页面 + 假接口 + 本地起服务
claude "/proto nextjs landing with /api/echo and ab flags; run dev"

工程版

  • 设计 路由与数据模型,约定埋点事件名。
  • 输出 OpenAPI 或协议文档;写 单元/契约测试;接入 CI 上的 Claude Code Action 自动体检与修复。

例子 B:小程序 / BLE 设备数据采集

Section titled “例子 B:小程序 / BLE 设备数据采集”

原型版

  • 优先把扫描 → 连接 → 读数 → 本地缓存跑起来,忽略异常处理。
  • 用 Slash Command 快速复用构建与真机调试指令。

工程版

  • 明确 状态机(连接/断开/重连/超时)。
  • 设计 离线同步协议重放策略;补充 边界测试
  • 把故障注入与恢复做成 /test-ble-reconnect 命令。

例子 C:内部审批系统(Rails/React)

Section titled “例子 C:内部审批系统(Rails/React)”

原型版

  • 只做核心流程:提交、流转、通过/驳回。
  • 用内存或 SQLite,先别上权限。

工程版

  • 设计 RBAC审计日志表结构;写 迁移脚本
  • 速率限制审计导出SLO 报表;Claude Code 在 PR 里自动修小问题和补测试。

例子 D:数据服务(FastAPI + DuckDB)

Section titled “例子 D:数据服务(FastAPI + DuckDB)”

原型版

  • 按场景先出 3 个只读 API,返回静态或半动态数据。
  • 忽略缓存与权限,先让前端能调通。

工程版

  • 定义 分页/排序/过滤协议与 错误码;补鉴权
  • 缓存层限流;将负载基线写成 /bench-api 命令一键压测。

  • 交互式终端 + 命令行,边聊边改文件,适合高频迭代。
  • Slash Commands 把你的“操作剧本”固化下来,团队共享。
  • GitHub Actions 让 @claude 进 PR/Issue,自动补丁、生成 PR、对齐项目规范。

这三件事连起来,就是一条从“想法 → 原型 → 工程化”的快车道。


  • 原型拖太久:超过 1~2 周还没定需求,就拆更小的故事点;必要时做 Spike 小结
  • 原型代码误上产线:分支隔离 + 目录标注 /proto-*,并在 CI 里阻断。
  • 二阶段无边界:写 工程 DoD(含安全与性能),把非功能项列为 技术 Enablers,逐 Sprint 拉完。
  • 隐私合规:公司项目优先用 企业/API 通道;个人订阅务必检查训练数据选择

原型不是偷懒,是加速“把事说清楚”。 工程不是慢,是把“长期成本”降下来。

用 Claude Code,我们可以把这两件事各就各位AI 主导跑原型,人类主导做工程。 今天就把你手头那个犹豫不决的需求,先跑起来

你怎么看?你的团队更卡在原型还是工程?评论区聊聊。

用 CC-Switch 一键切换 Claude Code & Codex 供应商

TL;DR 想在 Claude CodeCodex 之间快速切换 DeepSeek / Qwen Coder / GLM / Kimi K2 / packycode 等不同供应商?CC-Switch 是一个基于 Tauri 2.0 的极轻桌面应用(安装包约 5MB),支持一键切换、导入当前配置为默认、官方登录回切、自动备份等。新版 v3.1.0 已支持 Codex 供应商管理与一键切换。

引言:为啥你需要“供应商一键切换器”?

Section titled “引言:为啥你需要“供应商一键切换器”?”

每天写代码的我们,有时候更像是成本与速度的调度员。 今天为了速度用 Qwen Coder,明天为了复杂推理换 DeepSeek v3.1,遇到兼容性问题再切回 Claude 官方登录。如果还要到处改 ~/.claude~/.codex 配置,既烦又容易出错

CC-Switch 把这件事做成了一个开关: 点一下,供应商就切了。 配置副本自动管理、回滚不怕、官方登录随时回


  • 真·轻量:基于 Tauri 2.0秒开应用,官方实践也强调了 Tauri 的极小体积路线(比起 Electron 更克制)。 CC-Switch 在 v3.0.0 中从 Electron 迁到 Tauri 2.0,作者实测体积从 ~80MB 降到 ~12MB启动提速 10x

  • 同时支持 Claude Code 与 Codex

    • Claude Code 主配置:~/.claude/settings.json(或旧版 claude.json) 官方文档也确认 ~/.claude/settings.json 是标准入口。
    • Codex 主配置:~/.codex/auth.json(必需) + ~/.codex/config.toml(可为空) Codex README 亦提到 ~/.codex/config.toml 是配置中心,支持 MCP 等。
  • 一键切换 & 自动备份: 切换会把选中的供应商副本覆盖到主配置;若当前有“正在使用”的供应商,还会先把主配置回写到该供应商副本,方便回滚。内部配置 v1→v2 迁移也会在 ~/.cc-switch/时间戳备份

  • 预设即用:DeepSeek v3.1、Qwen Coder、GLM、Kimi K2、packycode… 只填 key 就能一键配置

  • 官方登录随时回: 想用 Claude 或 Codex 的官方登录?添加预设“官方登录”项,切换后重启终端即可 /login 或在 Codex 侧“Sign in with ChatGPT”。

  • 隐私友好: 所有信息仅存本地 ~/.cc-switch/config.json


Windows / macOS / Linux 全平台覆盖:

  • Windows:从 Releases 下载 CC-Switch-Setup.msiWindows-Portable.zip
  • macOS:下载 CC-Switch-macOS.zip,首次因“未知开发者”提示,去“系统设置 → 隐私与安全性 → 仍要打开”即可。
  • Linux:下载 .deb 安装包。

小提醒:作者没有苹果开发者账号,第一次打开会被拦,按上面的路径放行就行。


  1. 添加供应商 点击“添加供应商”,选择预设或自定义,填好 API Key。 (Codex 使用 API Key 时,OPENAI_API_KEY 常见;若你走官方账号登录,就切到“Codex 官方登录”。)

  2. 一键切换 在列表里勾选想用的供应商,点单选按钮。CC-Switch 自动把副本覆盖到主配置

  • Codex:覆盖 ~/.codex/auth.json~/.codex/config.toml(若无会生成空的 config.toml)。
  • Claude Code:覆盖 ~/.claude/settings.json(或旧版 claude.json)。
  1. 重启/新开终端 新开一个终端 Tab 或重启终端,让 CLI 读取到最新配置;Claude Code 官方也建议用 /login 登录官方账号时重启流程更干净。

我推荐的 3 种使用方式(实战向)

Section titled “我推荐的 3 种使用方式(实战向)”

DeepSeek v3.1 设为默认,遇到前端重构或大文件分析时一键切到 Qwen Coder,再需要复杂推理时切回 DeepSeek。全程无需手改配置

你已有在用的 CodexClaude Code 配置?CC-Switch 会把当前主配置自动导入为 default 供应商副本,以后换来换去都有“老家”可回。

调试出问题或配额吃紧时,一键切回 Claude 官方登录Codex Sign in with ChatGPT少走弯路,先把事搞定


  • Codex 的配置文件 社区实践以 ~/.codex/config.toml 为主,但也有人提到历史版本/安装方式导致文件名或存在性不一(如只见到 config.json)。CC-Switch 在切换时会兜底创建空的 config.toml,确保一致性。

  • Claude Code 的官方路径 官方文档明确:用户级配置就是 ~/.claude/settings.json。如果你的老环境还有 claude.json,CC-Switch 也会兼容

  • 隐私与安全 CC-Switch 只改本地文件,不传服务器;需要团队共享时,请自己用 Git 管理项目内的 .claude/settings.json 等(Claude Code 官方也支持项目级 settings)。


  • 市面也有 命令行工具 做供应商切换,但 CC-Switch 的**图形化与“副本策略”**更直观、更稳。
  • 如果你追求极简、可视化、一键回切官方登录,它是更合适的“常驻小工具”。(可与 CLI/脚本互补。) (参考:社区也有类似管理工具与文章,但 CC-Switch 更聚焦“GUI + 双生态”。)

Q1:切换出错能回滚吗? 可以。当前“正在使用”的主配置先被备份回供应商副本,你随时可以切回那个供应商。

Q2:Codex 一直提示登录或配置无效? 优先尝试 “Codex 官方登录”(Sign in with ChatGPT),或者确认 OPENAI_API_KEYOPENAI_BASE_URL 写在 auth.json/config.toml 的正确位置。

Q3:为什么体积这么小、启动这么快? 因为 Tauri 只打包必要的原生壳与前端资源,官方指南也强调优化体积的思路。迁移到 Tauri 2.0 后,作者给出的对比数据非常可观。


把“切换供应商”变成一次点击,你就能把注意力放在真正重要的事上:写对的代码,做对的决策。 对于跨模型协作的人来说,CC-Switch 就像是你桌面上的模式档位杆——顺手、可靠、够快。 去试试它的 v3.1.0,把你的多供应商工作流飞起来。

Gemini 探索、ChatGPT 规划、Claude 执行:一个更强大的 AI 开发闭环

Gemini 做需求探索 → ChatGPT 做方案规划与评审 → Claude Code 生成与执行代码 → ChatGPT 复盘评审 → Gemini 总结输出。这套“分工明确”的协作链,能把日常开发从“想到—做到—评到—沉淀”串一遍。


  • 探索阶段 → Gemini:不设限抛想法,找你没注意到的模式。
  • 细化阶段 → ChatGPT:把发现转成可执行步骤,检查逻辑漏洞。
  • 整合阶段 → Claude Code:润色与整合,保证叙事一致。
  • 例子:做产品提案时,先问 Gemini 深层需求 → 让 ChatGPT 列出功能清单 → 找 Claude Code 集成为完整提案。

这把“三模型各有所长”说清楚了:Gemini 快、直觉强;ChatGPT 推理深;Claude 结构化和表达优秀。这和近几个月官方路线也挺契合:Google 把 Gemini 2.5 定位成“思考型”且提供快/省的 Flash 与更强的 Pro 版本;OpenAI 强调 ChatGPT 的推理与方案规划能力与深度研究;Anthropic 则把 Claude Code做成“能在终端里读库、改库、提 PR”的实干型工具。


  • Gemini:更像“直觉雷达” 原生多模态与“thinking models”设计,速度快、覆盖面广,在“把问题打开、捞线索”上很高效;2.5 系列把“思考预算”暴露出来,适合先广后深的探索。

  • ChatGPT:方案结构与推理深度 官方能力页与“深度研究”展示了逻辑分解、论证与整合外部资料的长项,拿来做技术方案、权衡取舍与评审很对路。

  • Claude Code:把事儿做了 定位就是“终端里的编码代理”,能读仓库、改代码、跑命令、走 GitHub Actions,把方案快速落地成 PR。

温馨提示:模型强弱会随版本迭代变化,上述分工是工程实用主义的“默认位形”,不是铁律。你随时能按项目类型微调。


日常软件开发闭环(带真实场景示例)

Section titled “日常软件开发闭环(带真实场景示例)”

我们以一个“给现有 App 增加订阅管理模块”为例,走一遍闭环。

目标:把“订阅管理”藏在用户话语背后的真实痛点捞出来,并形成用户旅程/边界条件。

示例提示(给 Gemini)

“我们要给 App 加‘订阅管理’,请从用户分群(新客/在订/流失边缘)、关键动机取消与挽留触点监管与支付合规四维度梳理潜在需求。给出 3 条我们容易忽略但高杠杆的需求假设,并为每条假设配一个可验证事件与可量化指标。”

为什么用 Gemini:适合快速扩散与枚举,还能把“thinking budget”拉高或降低,先广撒网后收口


目标:把上面的“假设—指标—场景”变成系统设计与里程碑

示例提示(给 ChatGPT)

“基于这 3 条高杠杆需求,输出技术方案草图: 1)后端数据模型与事件表(含主键、索引、冷热分层); 2)前端关键界面 Wireframe 与状态机; 3)风控/合规拦截点; 4)A/B 实验设计与样本量估算; 最后给出里程碑(两周一迭代)与风险清单(按概率×影响排序)。”

为什么用 ChatGPT:官方强调逻辑分解与方案起草,适配“把洞察落成结构化计划”。


三、代码生成与执行(Claude Code)

Section titled “三、代码生成与执行(Claude Code)”

目标:按方案直接写代码、改代码、跑任务、提 PR

怎么用

  • 终端装好 @anthropic-ai/claude-code 后,进入仓库直接对话;Claude 会读仓、建索引、定位依赖
  • 在 PR/Issue 里 @claude,可自动生成或修改代码并创建 PR。

示例命令(概念演示)

Terminal window
# 在项目根目录
claude "为订阅管理创建后端事件表、写迁移、补集成测试;若存在 Stripe Webhook 则挂载处理器。完成后开启一个 feature 分支并提交 PR。"

这一步的价值是端到端:读代码、改代码、跑脚本、走 Git 流程,全在一个回路里完成。


目标挑刺与修正。 把 Claude Code 生成的 PR 交给 ChatGPT,要求从复杂度、可测试性、回滚策略、异常路径做审核清单,再给改进 Diff建议。

ChatGPT 近来的“深度研究/长链条推理”能力,很适合做反方与 Reviewer


目标:把这轮迭代沉淀成复盘卡与知识库。 让 Gemini 读取 PR、Issue、CI 日志与监控告警,输出:

  • 一页复盘卡(目标-动作-结果-经验-遗留);
  • 面向运营/客服/法务的三份不同口径总结
  • 下轮探索清单自动化回归用例草稿。

Gemini 在多角色输出跨场景总结上,速度与覆盖面占优。


  1. 把分工写进仓库CONTRIBUTING.md 里写清:探索→规划→落地→评审→总结的默认工具与入口,减少团队认知切换成本。
  2. 把动作接到 CI/CD 启用 Claude Code GitHub Actions,实现“评论触发 PR 生成/修改”。
  3. 移动端或 Android 项目Gemini Code Assist 直接在 IDE 里解构错误、生成修复建议。
  4. 注意安全与合规 参考 Google 的生成式 AI 安全指引,尤其是用户数据最小化、可解释与回滚机制。

可复制的“闭环”清单(直接粘到你的团队 Wiki)

Section titled “可复制的“闭环”清单(直接粘到你的团队 Wiki)”
  • Gemini – 需求探索:用户分群、旅程、异常场景、关键指标。
  • ChatGPT – 方案规划:架构/数据/状态机、里程碑、实验设计。
  • Claude Code – 代码与执行:读库、改库、跑测试、开分支、提 PR。
  • ChatGPT – 评审:复杂度、可观测性、回滚、异常路径。
  • Gemini – 总结:一页复盘卡、多口径总结、下轮探索与回归。

把模型当“人”用,而不是当“工具箱”用。 直觉快的去探索,爱思考的去规划,能干活的去落地。 当每个环节都有人“负责”,你的开发节奏就顺了。

你觉得这套分工好用吗?你会怎么微调它?欢迎在评论区聊聊。

Zed 支持 ACP 接入 Claude Code 与 Gemini:给多位 AI 同事派活

Zed 把“代理”做成了标准接口(ACP),把命令行里的智能体请进了编辑器。Gemini CLI 率先接入;Claude Code 也可通过社区桥接跑在 Zed 的 ACP 上。未来,多 Agent 共存将是常态。


  • ACP = 给 AI 编程 Agent 的“LSP”。Zed 把协议开源(Apache),任何实现 ACP 的 Agent 都能在 Zed 里跑。
  • Gemini CLI 官方打样:Zed 0.201.5 起,Agent 面板内直接新建 Gemini 线程;未安装会自动装;需要 Gemini CLI ≥ 0.2.0
  • Claude Code 现在也能接:用社区开源桥接 acp-claude-code,一行配置就行,支持自动接受文件编辑权限模式。
  • 注意功能差异:Gemini CLI 目前仍缺少“历史消息编辑/从历史恢复/checkpoint/SSH 项目内使用”等能力,官方规划补齐。
  • 数据在本地:第三方 Agent 交互不经过 Zed 服务器;多缓冲区可视化改动、实时预览很香。

1)编辑器与 Agent 解耦 像 LSP 解耦语言服务一样,ACP 把“哪位 Agent 上场”这件事交给你选。同一个项目,随时切换不同 Agent 解决不同问题。

2)“真·命令行能力”,但在编辑器里可视化 Zed 在后台直接跑真实的 Gemini CLI 子进程,用 JSON-RPC 说话;你得到 CLI 的全部能力,同时拥有实时变更可视化多缓冲区审阅

3)开源协议 + 生态扩张 ACP 开源(Apache),Neovim 社区也已跟进支持 ACP 兼容 Agent。生态不是单机模式


准备 Zed: Stable 版 0.201.5+ 可直接用外部 Agent;cmd-? 打开 Agent 面板,右上角 + 新建 Gemini 线程。可加快捷键:

[
{ "bindings": { "cmd-alt-g": ["agent::NewExternalAgentThread", { "agent": "gemini" }] } }
]

准备 Gemini CLI:

  • 未安装时 Zed 会代为安装;已装则走 PATH。
  • ≥ 0.2.0;常见升级命令:
Terminal window
npm install -g @google/gemini-cli@latest
  • 登录可选:Log in with Google / GEMINI_API_KEY / Vertex AI

使用提示:

  • 支持 @ 文件 / 线程 / 符号 / 抓网页。
  • 暂不支持:历史消息编辑、从历史恢复、checkpoint、SSH 项目内使用。

一键把 Claude Code 接进 Zed(社区桥接)

Section titled “一键把 Claude Code 接进 Zed(社区桥接)”

现在你也能在 Zed 里用 Claude Code:社区实现的 ACP 桥接器 acp-claude-code。按下面加到你的 Zed 设置即可(支持自动接受编辑权限):

{
"agent_servers": {
"claude-code": {
"command": "npx",
"args": ["acp-claude-code"],
"env": {
"ACP_PERMISSION_MODE": "acceptEdits" // 自动接受文件编辑
}
}
}
}

这个桥接器实现了 ACP Agent,封装 Claude Code SDK,支持会话保持、流式输出、工具调用、权限模式 等;仓库声明 Zed 团队在做原生支持,当前以桥接形态使用。

备注:acceptEdits 仅自动接受“文件编辑”;若用 bypassPermissions绕过所有权限(不推荐,除非在干净环境做批处理)。

Claude Code 安装(如未安装):

Terminal window
npm install -g @anthropic-ai/claude-code

  • 大仓重构与批量修补:多缓冲区审阅 + 实时可视化,改动一览无余
  • 多 Agent PK:同题不同解。Gemini 先出重构方案,Claude Code 再补测试与提交信息。一个编辑器搞定。
  • 安全/合规团队:外部 Agent 交互不经 Zed 服务器,更安心。

  • 命令面板运行 dev: open acp logs,查看 Zed 与 Agent 的消息收发,定位问题非常直观。
  • 需要快捷开新线程?动作名:agent::NewExternalAgentThread

  • 今天:Gemini CLI 官方集成已上线。
  • 正在发生:社区已把 Claude Code 接入 ACP(桥接器开源活跃)。
  • 可预期:ACP 是开源协议,更多 Agent(如 Codex CLI、Cursor CLI 等)完全可以接入;这不是空想,Zed 博文明确鼓励第三方 Agent 与其他编辑器加入。

  1. Gemini 线路
  • 升级 Zed 到稳定版(≥0.201.5)。
  • 打开 Agent 面板新建 Gemini 线程;如需升级 CLI:npm i -g @google/gemini-cli@latest
  1. Claude Code 线路(桥接)
  • 安装 Claude Code:npm i -g @anthropic-ai/claude-code
  • 在 Zed 设置写入上面的 agent_servers 片段,建议 ACP_PERMISSION_MODE=acceptEdits
  1. 调试
  • dev: open acp logs 看日志,排查权限/会话问题。

  • 你的项目里,哪类任务更适合交给 Gemini?哪类交给 Claude Code?
  • 团队要不要设定权限策略(如只自动接受编辑,不自动执行命令)?
  • 要不要做一场“多 Agent PK”的内部学习会?

把 Claude Code 接上国产大模型:DeepSeek/GLM-4.5/Kimi K2

把 Claude Code 指向国产模型 API,开箱能写代码、能跑指令、能提 PR。

——别纠结,照这篇一步步抄就行。


最近大家都在玩 Claude Code。 问题是:公司网络/预算不方便直连海外,那还怎么玩?

好消息是,国内几家头部模型已经提供了 “Anthropic 兼容” 的接口。 把 Claude Code 的 Base URL + Key 改一改,就能直接用。 本文手把手接好 DeepSeek、智谱 GLM-4.5、Kimi K2,顺带给你一份避坑清单


Terminal window
# 需要 Node.js 18+
npm install -g @anthropic-ai/claude-code

安装完成,终端输入 claude 进入交互界面。官方支持 Node18+,交互里还能用 /config 调整设置。

  • DeepSeek:平台开通后在 API Keys 页面创建密钥。
  • 智谱 Z.AI(GLM-4.5):控制台生成密钥。
  • Kimi K2(Moonshot):控制台生成密钥。

直接在当前终端导出变量;重开终端会失效。要永久生效见下文“长期配置”。


方案 A:DeepSeek(官方提供 Anthropic 兼容)

Section titled “方案 A:DeepSeek(官方提供 Anthropic 兼容)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000

然后在项目目录里执行:

Terminal window
claude

DeepSeek 官方文档给出了 Anthropic 兼容路径推荐模型名、以及 长输出需加超时 的说明。

长期配置(zsh 示例):

Terminal window
cat >> ~/.zshrc <<'EOF'
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000
EOF
source ~/.zshrc

验证: 启动后输入 /status 看当前模型;也可以 echo $ANTHROPIC_BASE_URL 自检。


方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)

Section titled “方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Z.AI_API_Key"
# 可选:默认模型
export ANTHROPIC_MODEL="glm-4.5"

官方页面明确写了 Anthropic 兼容端点,并给出在 ~/.claude/settings.json 中切换 glm-4.5glm-4.5-air 的方式。

用 settings.json 切模型(可选):

{
"env": {
"ANTHROPIC_MODEL": "glm-4.5-air"
}
}

保存后新开一个终端再 claude,在界面里 /status 查看。


方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)

Section titled “方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)”

临时设置(全球域名更通用):

Terminal window
export ANTHROPIC_BASE_URL="https://api.moonshot.ai/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Moonshot_API_Key"
# 部分部署会把温度做0.6映射,保持默认即可

Moonshot 团队在 K2 仓库与技术博客多次强调 同时兼容 OpenAI / Anthropic;社区与指南也普遍使用 https://api.moonshot.ai/anthropic 作为 Base URL。注意:有些帖子写成 .cn 域名会失败,请以 .ai 为准或以控制台文档为准。


进入 claude 之后,建议先做 3 件事:

  1. 看模型:输入 /status 或问 “你现在的模型 ID 是?”
  2. 跑个命令/bash echo "hello cc" 看权限弹窗是否正常。
  3. 改个文件:让它在示例仓库里新建 README_CC.md,确认能读写。

这些都是 Claude Code 官方推荐的交互与配置方式。


Q1:401 未授权? 多半是 Key 没带对。Claude Code 支持两种鉴权位:

  • ANTHROPIC_API_KEY(发到 X-Api-Key
  • ANTHROPIC_AUTH_TOKEN(发到 Authorization: Bearer) 国产兼容端一般用 AUTH_TOKEN + 自定义 Base URL 更稳。

Q2:连不上 / 404?

  • Base URL 路径要包含 /anthropic(例如 DeepSeek、Moonshot 的兼容端)。
  • Kimi 用 .ai 域名更可靠,部分 .cn 会挂。

Q3:网页搜索 / WebSearch 工具没反应? 用的不是官方 Anthropic API 时,内置 WebSearch 工具不会提供。需要接 外部 MCP 搜索(Tavily/Brave/DuckDuckGo 等)。

Q4:长输出容易超时? DeepSeek 官方建议加 API_TIMEOUT_MS=600000(10 分钟)。

Q5:多模态/图片消息? 兼容端可能不完全支持所有 Anthropic 字段(比如图片/文档内容)。以厂商文档为准。


  • 保护仓库隐私:在 ~/.claude/settings.json 里把 .envsecrets/** 加入 permissions.deny
  • 敏感代码脱敏:公司代码先过一层 Git 镜像或删秘钥再让 AI 看。
  • 权限模式:默认保留确认弹窗。--dangerously-skip-permissions 仅在你完全信任环境时临时使用。

供应商Base URL必填环境变量推荐模型名
DeepSeekhttps://api.deepseek.com/anthropicANTHROPIC_AUTH_TOKENdeepseek-chat
智谱 Z.AIhttps://api.z.ai/api/anthropicANTHROPIC_AUTH_TOKENglm-4.5 / glm-4.5-air
Kimi K2https://api.moonshot.ai/anthropicANTHROPIC_AUTH_TOKEN(按平台路由即可)

以上均为厂商及官方渠道公开说明或实测常用配置。


不想每次 export?直接把环境变量写入 ~/.claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "xxxxx",
"ANTHROPIC_MODEL": "deepseek-chat",
"API_TIMEOUT_MS": "600000"
}
}

settings.json 是官方推荐的全局/项目分级配置方式,支持 env、权限、hooks 等统一管理。


接上国内模型后,Claude Code 依旧是那个“把灵感变代码”的生产力发动机。 哪家更顺手?DeepSeek 快、GLM-4.5 思考稳、K2 价格香,你现场对比就知道。 跑通一条,团队就能低成本试点 AI 代码协作,把效率真金白银落地。

你觉得哪个组合更顺手?有没有踩过别的坑?评论区聊聊你的实践

Claude Code 实战指南 1:CLI 常用命令选项

图形界面好用,但命令行更快、更稳、可编排。 Claude Code CLI 就是那把“顺手的刀”。 开个 REPL 聊天、管道一把梭、恢复历史会话、精细化权限……一行命令就行。

这篇文章,带你用最少的记忆成本,搞定日常 90% 的 CLI 用法。 能复制就不手打。能自动化就不手动。


  • REPL 模式claude 开聊,claude "…" 带着问题开聊。
  • 打印/管道模式-p 非交互,一次性出结果;配合 --output-format json/stream-json 可编排。
  • 会话管理-c 续聊最近;-r 选历史;--session-id 固定一个会话做长期任务。
  • 权限控制--permission-mode 精细开关,--allowedTools/--disallowedTools 白黑名单更稳。
  • 危险跳过--dangerously-skip-permissions 只在离线/沙盒用,线上坚决别开。

#1 REPL 模式:像终端里的“对话 IDE”

Section titled “#1 REPL 模式:像终端里的“对话 IDE””

最常用两种启动:

Terminal window
# 直接开 REPL
claude
# 带初始问题进入 REPL
claude "explain this project like I'm new here"

好用的小技巧:

Terminal window
# 连接唯一可用 IDE(有且仅有一个)
claude --ide
# 给系统提示加一段指令(不开配置文件也能临时生效)
claude --append-system-prompt "You are a careful code reviewer."

用法心法:临时探索、逐步重构、一步步跑通,REPL 很顺手。 配合 --model sonnet 或完整型号,切换模型同样丝滑。


#2 打印 / 管道模式:脚本化、一把过

Section titled “#2 打印 / 管道模式:脚本化、一把过”

核心就是 -p:从 stdin 读入 → 输出一次结果 → 退出。 适合脚本、CI、批处理。

Terminal window
# 单次问答
claude -p "explain this function"
# 处理文件内容
cat server.log | claude -p "summarize error patterns"
# 处理代码 diff
git diff | claude -p "write a clear PR description"

编排友好的输出格式:

Terminal window
# 机器可读
claude -p "summarize as JSON" --output-format json
# 实时流式 JSON(上游/下游都能流)
cat api.md | claude -p --input-format stream-json --output-format stream-json

组合拳示例(配 jq):

Terminal window
git diff | claude -p "summarize as JSON with keys: title, bullets" --output-format json \
| jq -r '"# \(.title)\n- " + (.bullets | join("\n- "))'

#3 会话管理:续聊、回溯、固化 ID

Section titled “#3 会话管理:续聊、回溯、固化 ID”

常用 4 连:

Terminal window
# 续聊最近一个
claude -c
# 续聊 + 一句指令后直接退出(非交互)
claude -c -p "Check for type errors"
# 选择历史会话(交互式列表)
claude -r
# 用会话 ID 恢复(支持非交互批处理)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "fix all linting issues"

固化会话 ID(做“长期项目管家”):

Terminal window
export CC_SID="12345678-1234-1234-1234-123456789abc"
claude --session-id $CC_SID "Keep maintaining the release plan"

实战建议:给每个长期任务固定一个 --session-id。上下文更稳定,历史更可追溯。


#4 权限模式:既要效率,也要边界

Section titled “#4 权限模式:既要效率,也要边界”

四种模式概念清晰:

Terminal window
# 默认模式:遇到风险行为会请求确认
claude --permission-mode default
# 只自动接受 “Edit” 类操作,写文件/改代码很顺
claude --permission-mode acceptEdits
# 计划模式:先出完整计划,再执行
claude --permission-mode plan
# 全面绕过权限(⚠️ 风险高,通常不建议)
claude --permission-mode bypassPermissions

非交互场景的“权限提示代理”(比如 CI 无法点确认):

让某个 MCP 工具来“代表你”处理权限提示。

Terminal window
claude -p --permission-prompt-tool mcp_auth_tool "run code review"

#5 危险跳过模式:只在离线/沙盒使用

Section titled “#5 危险跳过模式:只在离线/沙盒使用”
Terminal window
# 绕过所有权限检查(字面意思就很危险)
claude --dangerously-skip-permissions

什么时候可以用?

  • 本地无网络的沙盒容器
  • 演示/教学环境,只读文件系统或镜像快照可随时回滚。
  • 一次性临时环境,跑完就销毁。

什么时候别用?

  • 生产环境、含密钥的仓库、CI 写入真实资源。
  • 任何你不希望“自动执行 shell/写文件”的地方。

记一句:能不用就不用。真的要用,先隔离


#6 工具名称列表:白/黑名单更稳

Section titled “#6 工具名称列表:白/黑名单更稳”

精确控制哪些工具能被用,语法支持“子命令通配”。

Terminal window
# 允许:所有 git 子命令的 Bash、代码编辑器
claude --allowedTools "Bash(git:*), Edit"
# 禁止:所有 rm 子命令(哪怕允许了 Bash)
claude --disallowedTools "Bash(rm:*)"

CI 场景推荐: 仅开放必要编辑能力,封死危险命令。

Terminal window
claude -p \
--permission-mode acceptEdits \
--allowedTools "Edit" \
--disallowedTools "Bash(rm:*), Bash(curl:*), Bash(wget:*)"

#7 输入/输出格式:接上游、接下游,都优雅

Section titled “#7 输入/输出格式:接上游、接下游,都优雅”
Terminal window
# 输入文本、输出文本(默认)
claude -p "explain"
# 输入流式 JSON、输出流式 JSON
claude -p --input-format stream-json --output-format stream-json --replay-user-messages

--replay-user-messages 干嘛用? 在流式 JSON 管道里,把 stdin 的“用户消息”原样回放到 stdout,方便中间件对齐上下游事件流。


#8 进阶三件套:模型 / 目录 / 设置

Section titled “#8 进阶三件套:模型 / 目录 / 设置”
Terminal window
# 模型与回退
claude --model sonnet --fallback-model opus -p "explain the migration plan"
# 允许访问额外目录 & 指定工作目录
claude --add-dir ../apps ../lib --cwd ./apps/web
# 一把加载设置(文件或 JSON 字符串)
claude --settings ./cc.settings.json

示例 cc.settings.json

{
"verbose": true,
"maxTurns": 8,
"appendSystemPrompt": "Prefer clear diffs and small PRs."
}

Terminal window
# 开 REPL
claude
# 带问题开 REPL
claude "help write a release note"
# 单次问答(脚本化)
claude -p "explain this function" --output-format text
# 处理日志
cat logs.txt | claude -p "find top 5 recurring errors"
# JSON 输出给下游
git diff | claude -p "summarize as JSON" --output-format json
# 续聊最近
claude -c
# 恢复指定会话(非交互)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "finish the refactor"
# 固定会话 ID
claude --session-id 12345678-1234-1234-1234-123456789abc
# 计划模式(先出方案再执行)
claude --permission-mode plan
# 白名单工具(只允许编辑)
claude --allowedTools "Edit"
# 黑名单危险命令
claude --disallowedTools "Bash(rm:*)"
# ⚠️ 仅沙盒使用
claude --dangerously-skip-permissions

命令行的价值,就两点:可编排。 REPL 处理探索式任务,-p 负责自动化与流水线。 会话可追溯、权限可控、输出可编排,就能把 Claude Code 融进你的日常工程节奏。

愿你少敲十倍命令,多交付十倍结果。

你在用哪种组合最好用? 欢迎在评论区分享你的“命令流”,我会挑几条做成海报,送你一套 Vibe Coding 快速上手包。


  • 你更常用 REPL 还是 -p?为什么?
  • 你会在什么场景打开 acceptEdits
  • **有没有一条让你“直呼好用”的管道命令?**贴出来一起抄作业。

Claude Code 实战指南 1.5:Claude Code 会话管理继续接着聊

**教你用 --continue / --resume / --session-id / 非交互模式 四件套,稳定续上上一轮思考,把多任务协作与自动化玩明白。


写代码像健身——最怕中断。 昨天和 Claude Code 正聊到一半的重构方案,今天进来就忘了哪一步?多开几个任务就“串味”?脚本里跑两轮就丢上下文?

这篇就讲清楚:Claude Code 的会话(Session)怎么管,怎么一键续聊、精确点聊、并行多聊、脚本里接着聊。让你的 Vibe Coding 节奏不掉线。


你需要会话管理的 4 个真实场景

Section titled “你需要会话管理的 4 个真实场景”
  • 继续昨天的坑:直接接着上次那段对话继续推进。
  • 同时搞两条线:一个分支修 Bug,一个分支做新功能,互不干扰。
  • 脚本自动化:CI/脚本里多轮交互,不丢上下文。
  • 隐私与成本:会话本地保存与摘要成本心里有数。

1)最快速:继续最近的对话(--continue / -c

Section titled “1)最快速:继续最近的对话(--continue / -c)”
  • 命令:

    Terminal window
    claude --continue
    # 或
    claude -c
  • 用法心法:啥也不选,立刻续上“最近一次”会话,连环境都不用重配。

  • 小技巧:要在脚本里续上最近会话并输出结果:

    Terminal window
    claude --continue --print "继续刚才的重构,补齐单测"

    --print 等价 -p,走非交互输出)


2)更精准:恢复指定会话(--resume / -r

Section titled “2)更精准:恢复指定会话(--resume / -r)”
  • 交互式“会话选择器”:

    Terminal window
    claude --resume

    会弹出历史会话列表(开始时间 / 首条提示或摘要 / 消息数),方向键选择即可。适合一天切好几条线的同学。

  • 直接用 会话 ID 恢复:

    Terminal window
    claude --resume 550e8400-e29b-41d4-a716-446655440000 "把 API 抽象层改完"
    # 或
    claude -r 550e8400-e29b-41d4-a716-446655440000 "继续写集成测试"

    适合 脚本/自动化 精确点名。


3)脚本必备:拿到 session_id + 非交互多轮

Section titled “3)脚本必备:拿到 session_id + 非交互多轮”

思路:先启动一轮拿到 session_id,后续每步都用 --resume $sid 串起来。

Terminal window
# 第一步:起一个会话并抓 session_id(JSON 输出里自带)
sid=$(claude -p "开启重构会话:先列出风险点" --output-format json | jq -r '.session_id')
# 第二步:多轮非交互续写
claude -p --resume "$sid" "按照上一步计划,先改 utils/date.ts"
claude -p --resume "$sid" "补充 ts-jest 配置与单测样例"
  • 关键点:--output-format json 的返回体里包含 session_id 字段;也可用 --no-interactive 配合 --resume 做纯非交互续写。

⚠️ 排雷:有开发者反馈,在非交互里反复用 --continue 可能会生成新的 session,导致上下文“看着像合上了”,其实换了 ID。自动化建议固定用 session_id + --resume


4)在 REPL 里也能选:/resume 指令

Section titled “4)在 REPL 里也能选:/resume 指令”

进入交互 REPL 后,直接敲:

/resume

就能列出会话并恢复。这个入口与 --resume/--continue 同源,触发同一套 SessionStart/Resume 逻辑。 (Hooks 文档里明确写了 resume 匹配来源:--resume--continue/resume

顺手再记两个常用键:

  • Esc Esc:编辑上条消息
  • ↑ / ↓:翻阅本会话历史 用来微调上一轮提问,贼高效。

并行不串台:用 Git Worktree 隔离多会话

Section titled “并行不串台:用 Git Worktree 隔离多会话”

同时推进“修 Bug”和“开新功能”?用 git worktree 把仓库拉成两个工作目录,在各自目录里分别开 Claude Code,上下文天然隔离

Terminal window
git worktree add ../proj-feature-a -b feature-a
git worktree add ../proj-bugfix bugfix-123
cd ../proj-feature-a && claude
cd ../proj-bugfix && claude

官方工作流里强推这招,会话和文件状态互不影响


隐私 & 成本:会话保存与摘要消费

Section titled “隐私 & 成本:会话保存与摘要消费”
  • 本地保存:客户端会将会话在本地保留(默认可配置,常见上限 30 天),用于 --resume。企业合规可以设为零数据保留。
  • 后台摘要:为了让 --resume 有“可选列表”和摘要,Claude Code 会做后台会话摘要,这会产生少量 Token 开销。

Bash 版多轮模板

Terminal window
# 开会话并保存 ID
sid=$(claude -p "准备发布:生成变更清单" --output-format json | jq -r '.session_id')
# 后续步骤都续这个会话
claude -p --resume "$sid" "生成 release note,中文+英文"
claude -p --resume "$sid" "检查 CI 失败原因并给出修复命令"
claude -p --resume "$sid" "最后输出 checklist.md"

--print/-p 非交互;要强制非交互也可 --no-interactive

交互式快速入口

Terminal window
# 最近一次
claude --continue
# 选择历史
claude --resume
# 在 REPL 里
/resume

进阶:把会话钩到团队工作流(可选)

Section titled “进阶:把会话钩到团队工作流(可选)”

如果你在项目里配了 Hooks,例如 SessionStart/SessionEnd恢复会话时也会触发。这意味着你可以在恢复瞬间自动加载最新 issue、变更摘要或安全检查


会话管理不是“锦上添花”,而是让灵感不断档的底层设施。 把 --continue 用在临时续聊,把 --resume + session_id 用在长期、可回放的任务,用 worktree 做物理隔离,再把这套搬进脚本,你的 Vibe Coding 就会从“灵感速写”进化到“可复盘的创作流水线”。

你觉得呢?你现在最需要哪种会话管理姿势?评论区见。

Claude Code 实战指南 1.10:用 claude code --permission-prompt-tool 把权限“外包”给你的 MCP 工具


是不是常被权限弹窗打断思路? 想把 Claude Code 放进 CI/CD、夜间批处理、远程容器里跑,又不敢开“全放行”?

答案就是这个开关:--permission-prompt-tool 它把“是否允许用某个工具”的决定,交给你指定的 MCP 工具 来做。支持按需审批、审计留痕、条件放行,还能跑在纯命令行的无人值守模式。CLI 文档里明确写了它的用途:在非交互模式下由 MCP 工具处理权限提示。**

权限顺序也很清楚:先看 settings.json / --allowedTools / --disallowedTools。有结论就直接执行或拒绝。否则才调用你传入的 --permission-prompt-tool 官方 SDK 文档给出了完整流程与返回格式要求。**


  • 它是什么:一个把“是否放行工具调用”的决定交给 MCP 工具的桥。适合自动化、无人值守、安全合规。**
  • 怎么判定:静态规则优先(settings/allowed/disallowed),没命中才调用你的权限代理。返回 allow/deny 的 JSON。**
  • 最佳场景:CI/CD、批处理重构、远程容器/Server、IDE/插件联动、企业级合规审计。**
  • 对安全团队的意义:可审核、可记录、可细粒度放行,符合 IAM + 最小权限 思路。搭配 MCP 白名单更稳。**

把“要不要放行这次工具调用”的问题,转发给你指定的 MCP 工具。 这个 MCP 工具可以接入审批、黑白名单、时段策略、Slack 人工确认、风控打分……你来定规则。CLI 与 Headless 模式都支持这一机制。**

Claude Code 的三层权限检查机制:

先检查这些预设的权限规则

  • settings.json 文件中的配置
  • 命令行参数 --allowedTools
  • 命令行参数 --disallowedTools

如果第一层有明确答案 → 直接执行或拒绝 如果第一层没有规则 → 进入第三层

调用你指定的 MCP 工具来做决定 --permission-prompt-tool your_custom_tool

假设 Claude 要执行 Write 工具修改文件:

情况1:静态配置已决定

settings.json
{
"allowedTools": ["Write", "Read"]
}

结果:直接允许,不调用 MCP 工具

情况2:静态配置禁止

settings.json
{
"disallowedTools": ["Write"]
}

结果:直接拒绝,不调用 MCP 工具

情况3:静态配置无规则

settings.json
{
"allowedTools": ["Read"]
// 没有关于 Write 的规则
}

结果:调用 —permission-prompt-tool 指定的 MCP 工具询问

用代码逻辑表示

def check_permission(tool_name):
# 第一层:检查静态配置
if tool_name in settings.allowedTools:
return True # 直接允许
if tool_name in settings.disallowedTools:
return False # 直接拒绝
# 第二层:没有明确规则,调用 MCP 工具
if permission_prompt_tool:
return permission_prompt_tool.ask_permission(tool_name)
# 默认行为(通常是询问用户)
return prompt_user(tool_name)

企业环境:大部分工具预先配置,特殊情况动态审批

Terminal window
claude code --allowedTools "Read,Grep,LS" \
--disallowedTools "Bash:rm,Bash:sudo" \
--permission-prompt-tool enterprise_approver \
"analyze codebase"
    1. Claude 想用 Read → 静态允许 ✅
    1. Claude 想用 Bash:rm → 静态拒绝 ❌
    1. Claude 想用 Write → 没有规则,调用 enterprise_approver 询问 ❓

这种设计的好处是:

  • 性能:常用工具静态配置,快速决策
  • 灵活性:特殊情况可以动态处理
  • 安全性:默认拒绝,明确授权才能使用

  • 诉求:流水线里跑代码修改、测试修复、生成报告,不想被权限卡住。
  • 做法
Terminal window
claude -p "fix flaky tests and commit" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config ci-tools.json \
--permission-prompt-tool mcp__sec__approval_prompt \
--output-format json
  • 效果:凡是静态规则没覆盖的调用,交给 mcp__sec__approval_prompt 远程审批。流水线不中断。**
  • 诉求:夜间批量改文件、跑格式化、生成迁移 PR。
  • 做法:把“对关键路径的编辑”设为需审批,其余静态放行。发生变更时自动记录审计日志。
  • 依据:工具级/路径级细粒度规则可以在 IAM 里定义,如 Edit(docs/**)Bash(npm run test:*)。**
  • 诉求:没有交互 UI 的 Docker/SSH 环境也能安全放行必要操作。
  • 做法:在 Headless(非交互)模式下启用权限提示工具:
Terminal window
claude -p "build and publish image" \
--permission-prompt-tool mcp__guard__prompt \
--mcp-config /etc/mcp/servers.json
  • 来源:Headless 文档明确标注 --permission-prompt-tool 只在 --print 非交互模式下生效。**
  • 诉求:把 IDE 里的审批弹窗交给一个 GUI 代理或 Slack Bot,让同事点“允许”。
  • 做法:MCP 工具弹出 GUI 或发 Slack 卡片,点击后回传 allow/deny
  • 安全补充:MCP 服务器要可信、可审计,符合团队安全策略。**

工作原理(官方机制落地翻译)

Section titled “工作原理(官方机制落地翻译)”
  • 优先级:先检查 settings.json 与命令行的 --allowedTools / --disallowedTools。能决策就直接放行或拒绝;否则再调用你传入的 MCP 工具。**

  • 返回格式(必须 JSON 字符串)

    • 允许:

      {"behavior":"allow","updatedInput":{...}}
    • 拒绝:

      {"behavior":"deny","message":"..."}
    • updatedInput 可把人机协作后的新输入回传给模型(比如人工修改过的 diff)。**


const server = new McpServer({ name:"sec-approval", version:"0.0.1" });
server.tool(
"approval_prompt",
"Return allow/deny for tool use",
{ tool_name: z.string(), input: z.object({}).passthrough() },
async ({ tool_name, input }) => {
const allow = await riskCheck(tool_name, input); // 你的风控逻辑
const payload = allow
? { behavior: "allow", updatedInput: input }
: { behavior: "deny", message: "Policy denied by SEC team" };
return { content: [{ type: "text", text: JSON.stringify(payload) }] };
}
);

启动:

Terminal window
claude -p "migrate configs safely" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config security-tools.json \
--permission-prompt-tool mcp__sec-approval__approval_prompt

Headless + CLI 的用法与参数对照见官方文档。**

async def approval_prompt(tool_name: str, input: dict):
ok = policy_match(tool_name, input)
if ok:
return json.dumps({"behavior":"allow","updatedInput":input})
return json.dumps({"behavior":"deny","message":f"Denied {tool_name}"})

官方 SDK 文档也给出了 Python/TS 的结构与字段要求。**


  • --dangerously-skip-permissions粗暴跳过所有提示,官方明确“谨慎使用”。**
  • --permission-prompt-tool可控可审计可扩展,符合企业安全与合规。还能按目录/命令做细粒度规则,如 Bash(npm run test:*)Edit(docs/**)。**

最佳实践清单(企业可直接落地)

Section titled “最佳实践清单(企业可直接落地)”
  1. 三层权限静态规则优先(settings/allowed/disallowed)→ MCP 代理兜底默认拒绝。**

  2. MCP 白名单: 仅连接受信任的 MCP 服务器,并通过仓库内的配置纳管。**

  3. 细粒度匹配: 用 Bash(…)Edit(…)mcp__servermcp__server__tool 做精确授权;MCP 不支持通配符。**

  4. 审计与回放: 在权限代理里落日志、打审计标签,配合 --output-format json 保存流水。**

  5. 风险隔离: 可在容器/DevContainer里运行,减少误操作影响面。**


  • 工具名写法不对:MCP 名称是 mcp__<server>__<tool>,只写 mcp__<server> 代表允许该服务器所有工具。通配符不支持。**
  • 在交互模式里期望它也弹:该开关主要用于 --print 的非交互模式。**
  • 把它当万能钥匙:基础权限请放在 settings / allowed / disallowed 里,减少调用次数与网络风险。**
  • 忽视 MCP 安全:第三方服务器要审慎评估、最小权限接入。**

允许常用只读 + 拒绝危险命令 + 权限代理兜底

Terminal window
claude -p "refactor and open PR" \
--allowedTools "Read,Grep,LS" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config team-mcp.json \
--permission-prompt-tool mcp__approver__prompt \
--output-format json

按命令粒度放行

Terminal window
claude -p "run tests" \
--allowedTools "Bash(npm run test:*),Read" \
--permission-prompt-tool mcp__approver__prompt

以上参数与权限模式、工具匹配写法,均见官方 CLI / IAM / Headless 文档。**


--permission-prompt-tool 不是单个开关,而是**企业级“权限中台”**接口。 你可以把风险判断、人工审批、操作留痕,全部塞进一个 MCP 工具里。 自动化不必冒险,效率与安全两手都要硬。

你觉得这样的权限设计,够满足你们的合规要求吗? 欢迎在评论区聊聊你想怎么接 Slack/飞书/工单系统做“点一下才放行”。

Claude Code 值得谁用?不同角色眼中的 Claude Code:Vibe Coding 体验与应用场景分析

近年来 AI 编程助手层出不穷,其中 Anthropic 的 Claude Code(简称 CC)以“终端里的智能编程工具”定位引发关注。

所谓 Vibe Coding,指的是借助这类 AI 工具快速把脑海中的想法转化为代码,实现一种高速迭代、灵感驱动的编程体验。

本文通过调研不同类型用户对 CC 的使用反馈,分析这些现象背后的原因,并总结 Claude Code 在 Vibe Coding 场景下的最佳用例。
同时,我们也将 CC 与其他同类工具(如 Cursor、GitHub Copilot、OpenAI Codex CLI、Cursor CLI、Google Gemini CLI 等)进行对比,看看各自的优劣与适用场景。


不同背景的用户在使用 CC 进行 Vibe Coding 时感受差异明显:

1. 零编程基础的用户:举步维艰

Section titled “1. 零编程基础的用户:举步维艰”
  • Claude Code 并非“一键生成应用”的万能神器。它要求用户能用自然语言清晰描述需求,才能据此**“制定计划、编写代码并确保其正常工作”**
  • 完全不懂代码的人难以提供有效的指令,也无法判断生成代码的对错,因而“基本玩不转”。
  • CC 主要在终端中运行,需要一定的开发环境和命令行经验,这对小白来说门槛不低。
  • 这类用户认为 CC 的价值**“有限”**,自行编写代码更安心可靠。
  • CC 虽能用于“调试和修复问题”,通过分析代码库找 bug 并补丁,但实际效果仍需人工审核。
  • 其权限机制每一步都需用户批准(可开启 Yolo 模式 跳过确认),反而显得低效。
  • CC 仍处于测试阶段,不够稳定
  • 因此资深开发者更愿意将其作为辅助,而不会完全依赖。
  • 相比之下,PM、创业者和 CEO 则称其为“终于能快速落地脑中点子的神器”。
  • 许多**“不好意思请团队做”**的创意,现在能用 CC 自行尝试实现,例如:
    • 个性化信息流应用
    • 笔记工具
    • Apple Watch 数据解析小 App
    • 个人网站
  • 在企业内部,CTO 们用 CC 为旧系统做 LLM 改造,嵌入智能客服或推荐系统。
  • Intercom 的案例:Claude Code “让我们能够构建之前没有精力顾及的应用—from AI 数据标注工具到销售团队用的 ROI 计算器”

Claude Code 在内部系统集成中的应用

Section titled “Claude Code 在内部系统集成中的应用”
  • CC 擅长**“自动化繁琐任务”**,如修复 lint、解决合并冲突、生成发布说明

  • 能快速生成 API、数据库、文件系统的整合代码,试验效率高。

  • 可快速生成接入 LLM 的接口代码,把自然语言能力封装进现有系统。
  • 例如:内部知识库对话机器人、CRM 智能推荐模块。
  • CC 能**“保持对整个项目结构的感知”,甚至通过 MCP 拉取 Google Drive、Figma、Slack 数据**

👉 定位:加速器,而非完整替代品。最终仍需结合监控测试与成熟架构打磨。


  • LLM 属于概率预测,难保证每次结果准确。

  • 在全局变量重命名等任务上,“让 IDE 自带的重构功能来做更靠谱”

  • 社区反馈:CC 在 Swift/iOS 的表现不如前端

  • 总体而言:适合作为辅助工具,不适合完全自动化生成商业级软件。

  • 个人订阅尚可,但企业级使用成本过高。

  • 官方数据:平均每人每天 ~$6,美金,团队使用 Sonnet 4 模型人均月费可达 $100~200

  • 定价模式:Pro ~$17/月,Max 最高 $200/月

  • 结论:个人开发没问题,但做产品/服务时,API 成本难以承受。


Claude Code 适合的 Vibe Coding 使用场景

Section titled “Claude Code 适合的 Vibe Coding 使用场景”
  • 创意原型 & 个人项目:快速搭建小型应用、算法原型或验证脚本。

    • 可在数分钟内生成数百行代码
  • 复杂代码库理解与重构:分析逻辑、绘制架构图、提出全局改造方案

  • 日常开发提效 & 自动化:自动生成测试/文档、修正格式、从 Issue 到完整补丁提交

👉 最佳实践:“人 + AI 协作”。人把控方向,AI 提速执行。


工具特点优势场景局限
Claude Code终端智能代理,复杂推理深度调试、大型代码库、创意原型成本高,可靠性不足
GitHub CopilotIDE 插件,代码补全日常小步编码不能全局规划,难支持 0→1 开发
Cursor 编辑器VS Code 增强版IDE 用户友好,前端开发Agent 模式笨重,稳定性一般
Cursor CLI命令行版,跨模型灵活,支持 Anthropic/OpenAI/GoogleBeta 阶段,稳定性不足
OpenAI Codex CLI终端 AI 代理,多模态调试、自动执行、开源灵活尚在演进,代码质量略逊
Google Gemini CLI免费开源,百万 Token大项目、低预算、广泛任务社区未成熟,推理深度略弱

  • 适合人群
    • 有一定技术背景的 PM / CEO / 创业者:快速落地创意。
    • 开发团队:内部集成、实验 LLM 化。
  • 不太适合
    • 完全零基础用户(门槛太高)。
    • 对稳定性和精度要求极高的资深架构师(更适合当辅助)。

Claude Code 并非万能,但在 Vibe Coding 的舞台上,它让更多点子能从脑海走向现实。未来谁能在成本与可靠性上找到平衡,谁就可能成为这场 AI 开发力革命 的最大赢家。


没必要争论 Claude Code:应该把团队的分歧变成协作

Claude Code 正把“少写代码、多做事”的老趋势推到极致。写代码只是工程的一小部分,而对话与协作能让“门外汉”和工程师把 Unknown Unknowns 变成 Known Unknowns,真正把 Claude Code 用出生产力。


最近一条讨论火了:有人说 LLM 让“门外汉”也能上手写点软件;专业工程师反驳:软件工程不是只写代码,更重要是需求、架构、集成与长期维护。两边都没错,只是站位不同。这场争论的背后,其实是行业几十年来少写代码”的一条主线**,而 Claude Code 正把它推向下一阶段。


软件圈一直在减少机械劳动:

  • Rails 脚手架:一条命令生成 MVC,原型飞快起步。
  • Protocol Buffers:跨语言高效通信,少写重复序列化代码。
  • Scala implicits / given:用类型系统消除样板,减少胶水代码。

LLM 只是这条路的延长线:让我们写更少的代码、完成更多工作。但“工程”的部分从没消失。


二、Claude Code 到底改变了什么?

Section titled “二、Claude Code 到底改变了什么?”
  • 在终端工作,不是另一个聊天窗
  • 会直接动手:编辑文件、运行命令、创建 commit;
  • 能接入外部系统(MCP 读设计文档、改 Jira、使用自定义工具)。

而且它还把自动化搬进 CI/CD:GitHub Actions 支持在 PR/Issue 里 @claude,自动做代码审查、开分支、提修复。

更现实的是,企业版推广正在发生——团队可以分配 Claude/Claude Code 的标准或高级席位,集中管理与度量。


三、为什么“门外汉”感觉特别爽?

Section titled “三、为什么“门外汉”感觉特别爽?”

因为这次 AI 真的给了非工程师一个可用的接口

  • PM 能用自然语言拉起原型,更早发现歧义;
  • 运营、设计能直接改小功能/写脚本,不必层层排期。

媒体也在观察这一趋势——“Vibe Coding” 的讨论升温,Notion 等公司实践“对着 AI 编程”,记者亲身去“配对编程”,两天就能改 UI 小功能、做小特性。

“Vibe Coding”一词最早在 2025 年初走红,被总结为更靠近意图、少盯代码的开发范式。


长期性与可控性

  • 架构边界、数据契约、性能预算、可观测性……这些都不是“写两段代码”能解决的。
  • 测试与验收需要明确化。比如用 Cucumber/Gherkin 把业务语言写成可执行验收用例,团队都看得懂,也方便让 AI 参与生成与维护。

换句话说:AI 能帮我们少写代码,但工程的“组织与约束”必须更强。


五、两类常见误解(来自那条讨论)

Section titled “五、两类常见误解(来自那条讨论)”
  1. 把编程当成“写代码”本身
  2. 以为自己借助 AI 拼出来的小应用,就代表了行业软件形态,因此行业会被替代

这两点,在初级程序员身上也常见。经验会让人明白:软件工程的核心,是“工程”。


六、别吵了,来一套“协作剧本”

Section titled “六、别吵了,来一套“协作剧本””

目标:把 Unknown Unknowns 变成 Known Unknowns。下面这套最小闭环,团队今天就能落地。

  • 写 5 条 Gherkin 验收(Feature / Scenario),由 PM/业务主笔,工程师把关可测性;
  • 让 Claude Code 读这些 .feature,生成最小实现草稿与测试骨架。
  • 让它生成原型与改动 PR,但把合并权放在负责人手里;
  • 对关键模块加“守门规则”:必须过基准测试/性能预算才可合并。
  • 在 GitHub Actions 配置:新 Issue/失败的 CI/特定标签 自动触发 @claude 建议或修复;
  • 让它写风险说明回滚方案模版,减少合并焦虑。
  • 通过 MCP 让 Claude 读取设计文档与技术决策记录(ADR)
  • PR 必须同步更新 ADR/接口契约(Proto/JSON Schema),“代码-契约-测试”三件套保持一致。
  • 每周一次人机联席 Code Review:列出“AI 盲点清单”;
  • 对“AI 贡献的变更”单独看故障率与回滚率,用数据决定使用边界。

让“门外汉”参与,是好事:他们更靠近业务,更敢于从 0 到 1。让工程师主导“边界与约束”,是必要:系统才跑得久、跑得稳。吵不出结论,协作才能跑通闭环。

下一步:把你们产品里一个 3~5 天的小需求,按上面“协作剧本”走一遍。做完复盘,再决定 Claude Code 的“开闸力度”。

用 Claude Code + GitHub Actions,把 @claude 变成你团队的自动化同事

在 PR、Issue、计划任务里直接 @claude,它会按你仓库的 CLAUDE.md 规范自动审代码、修 Bug、写功能,还能发日报。零服务器运维负担,直接跑在 GitHub 托管 runner 上。


你有过这种体验吗? PR 堆成山,代码审不过来;Issue 描述很清楚,但没人愿意先动第一刀。

现在用 Claude Code 的 GitHub Actions,一句 @claude 就能把这些“机械重复但又必须做”的活交出去。 它会读取上下文、遵循你的项目规范、自动创建或更新 PR,甚至给出实现方案。


  • @claude 即用:在 PR、Issue 评论区点名即可触发,支持「交互式回复」或「自动执行」两种模式,v1 会自动识别触发方式。
  • 跟你团队的规范对齐:根目录放一份 CLAUDE.md,写清代码风格、评审规则、常用模式;Claude 执行时会遵循它。
  • 多云选型:既可直连 Anthropic API,也可走 AWS Bedrock / Google Vertex AI,更好满足企业合规与计费策略。
  • SDK 可扩展:官方 Claude Code SDK 支持 Headless/TS/Python,多语言业务都能把“会写代码的 Agent”嵌入工作流。
  • 无需自搭基础设施:默认用 GitHub 托管 runner,减少部署成本;私有仓库会计入 Actions 分钟数,公有仓库免费。

  1. 在终端打开 claude,执行命令:/install-github-app
  2. 根据引导完成 GitHub App 安装与 ANTHROPIC_API_KEY 机密配置。
  3. 在仓库评论中 @claude 测试一次。

如果走不通,也可 手动安装:安装官方 GitHub App → 仓库里添加 ANTHROPIC_API_KEY → 拷贝 examples/claude.yml.github/workflows/

B. 从 Beta 升级到 v1(有破坏性变更)

Section titled “B. 从 Beta 升级到 v1(有破坏性变更)”
  • 动作版本:@beta@v1
  • 删除 mode: 配置(v1 自动识别触发模式)
  • direct_prompt 改为 prompt
  • CLI 选项移动到 claude_args(如 --max-turns--model--system-prompt 等)

最小可用工作流示例(按需拷贝)

Section titled “最小可用工作流示例(按需拷贝)”

1) 在评论里用 @claude 做代码评审

Section titled “1) 在评论里用 @claude 做代码评审”
name: Claude Code (mentions)
on:
issue_comment: { types: [created] }
pull_request_review_comment: { types: [created] }
jobs:
run:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
# 留空 prompt,自动响应 @claude

行为说明:当有人在 PR/Issue 评论区写 @claude 这段代码可能有并发问题,给建议并修复,Action 会读取上下文给出回复,必要时提交变更。

2) 用斜杠命令做自动化代码审查

Section titled “2) 用斜杠命令做自动化代码审查”
name: Code Review
on:
pull_request: { types: [opened, synchronize] }
jobs:
review:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "/review"
claude_args: "--max-turns 5"

说明:新 PR 或有更新时,固定触发 /review 工作流进行轻量审查,控制轮次防止过度往返。

name: Daily Report
on:
schedule: [{ cron: "0 9 * * *" }]
jobs:
report:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "Summarize yesterday's commits and open issues"
claude_args: "--model claude-sonnet-4-20250514"

说明:定时扫描仓库提交与未解决 Issue,输出日报到评论或新 Issue。


  • 安全审查与合规清单:给 PR 加一条安全/隐私检查流程。减少漏项,拉齐“最低审查线”。
  • Bug 复现与小修小补:评论里描述报错,@claude 让它复现、定位并提交小范围修复 PR。
  • 单测补全:给关键模块自动生成缺失用例,配合 CLAUDE.md 约束用例风格。
  • 多仓库一致化改造:配合 SDK/Headless 模式,批量执行“统一脚手架、升级依赖、替换老函数”。
  • 企业上云合规:如有数据驻留或计费要求,可切换 Bedrock / Vertex 通道,统一账号体系与审计。

写好 CLAUDE.md(让 AI 真正懂你的项目)

Section titled “写好 CLAUDE.md(让 AI 真正懂你的项目)”

在仓库根目录放一份 CLAUDE.md,建议包含:

  • 代码风格与目录规范
  • 提交信息格式(如 Conventional Commits)
  • 组件/服务的首选实现模式反模式
  • 评审清单:安全、性能、可测试性、可观测性
  • 参考实现链接(允许 @file 引用关键文档与示例)

小贴士:CLAUDE.md短而硬。越清晰,Claude 产出越稳。长文档用链接或 @file 组合拆分。


成本与安全(老板最关心的两件事)

Section titled “成本与安全(老板最关心的两件事)”

成本怎么控?

  • 公有仓库使用 托管 runner 免费;私有仓库消耗分钟数与存储配额,超额计费。
  • 设置 --max-turns,避免长对话拉高 Tokens;必要时给任务加 超时并发 限流。
  • 定时任务避开高峰;减少无谓触发;控制 artifact 存储时间。

安全怎么做?

  • API Key 只放 Secrets,工作流里用 ${{ secrets.ANTHROPIC_API_KEY }} 引用,不要硬编码
  • 最小化权限:给 GitHub App 只开需要的 Repo 权限;审计 CI 触发事件。

  • 自定义 GitHub App:企业想用自家头像/昵称、细粒度权限,可自建 App 并在工作流里用 create-github-app-token 登录。
  • 结合加速 Runner:对大仓库或重任务,考虑自托管或加速型 Runner,缩短作业时长、控制花费。
  • SDK 编排子任务:用 Claude Code SDK 调度“读仓库→生成补丁→验证→发 PR”的流水线,形成你们的“工程化 Agent”。

团队越忙,越需要一个稳定的“自动化同事”。 把「规范写进 CLAUDE.md、工作流写进 GitHub Actions」,你就能把枯燥但关键的工程任务交给 Claude,给人留出更高价值的创造时间。

你会先把哪条流程交给 @claude? 留言说说你的想法,或者把这篇文章转给需要的同事,今天就试起来。

Claude Code 用 GitHub Copilot Sonnet 模型

场景:Claude Code 用到关键时刻提示配额不够,但你手里正好有 GitHub Copilot 订阅。 这时用一个开源的 Copilot API 代理,把 Copilot 暴露成OpenAI/Anthropic 兼容接口,就能把 Claude Code 接上继续 Vibe Coding。本文带你上手,并给出安全合规的推荐用法。


这是一个反向工程的 GitHub Copilot API 代理,把 Copilot 变成OpenAI /v1/chat/completionsAnthropic /v1/messages 兼容服务。好处是:任何支持这两套 API 的工具都能用,包括Claude Code。项目自带用量仪表盘速率限制手动审单企业/业务版账号支持等。

注意:它不是 GitHub 官方支持。GitHub 对过度自动化/批量请求有明确限制,可能触发风控或临停。请自担风险,理性使用


三点刚需价值:

  • 低中断:Claude Code 断粮时,用 Copilot 继续写、改、测。
  • 低改造:直接走 OpenAI/Anthropic 兼容端点,Claude Code 无感切换。
  • 可控可查:自带用量看板限流/等待机制手动审批,避免误触风控。

前提:你有有效的 GitHub Copilot 订阅

Terminal window
# 1) 交互式登录
npx copilot-api@latest auth
# 2) 启动代理,并生成 Claude Code 接入命令
npx copilot-api@latest start --claude-code
# 3) 在新终端粘贴运行(或手动指定环境变量)
ANTHROPIC_API_KEY=sk-dummy \
ANTHROPIC_BASE_URL=http://localhost:4141 \
claude --dangerously-skip-permissions

以上流程来自项目内置的 --claude-code 交互向导;也可用 .claude/settings.json 固化环境,避免每次敲变量。

更稳的做法:别长期用 --dangerously-skip-permissions。改用 Claude Code 的权限与环境设置,在项目级 .claude/settings.json 配置 ANTHROPIC_BASE_URL、默认模型和权限白名单,防止误操作。


  • npx 一键跑npx copilot-api@latest start(可加 --port 8080 --verbose

  • Docker 保持登录态:挂载 ./copilot-data 持久化令牌,容器重启不丢。

    Terminal window
    mkdir -p ./copilot-data
    docker run -p 4141:4141 \
    -v $(pwd)/copilot-data:/root/.local/share/copilot-api \
    copilot-api

    支持在 build/run 阶段传入 GH_TOKEN 环境变量,适合 CI/CD。


推荐“安全合规”姿势(强烈建议收藏)

Section titled “推荐“安全合规”姿势(强烈建议收藏)”
  • 只绑定本机:监听 127.0.0.1:4141,别裸露到公网。必要时走内网隧道/VPN。
  • 开启限流--rate-limit 30 --wait + 需要时 --manual 手动审单,降低异常频率。
  • 分清账号类型:个人 / Business / Enterprise 用 --account-type 明示。
  • 遵守条款:阅读 GitHub Acceptable Use PoliciesCopilot Terms,避免过度自动化/批量刷请求
  • 权限最小化:用 Claude Code 的 permissions.deny 排除 .envsecrets/** 等敏感目录。

  • 提示 token/模型受限:关注 Issues 中的 max_prompt_tokens、上下文太大等讨论与修复建议。
  • Headless 机器登录困难:参考 auth 子命令产 token,再用 --github-token 传入。
  • 被风控:先停用自动批量任务,提高延时、开启 --manual,再检查条款合规性。

  • 适合:个人开发者、小团队,已付费 Copilot,希望在Claude Code 配额见底时有平滑备援
  • 不太适合:严格合规的大企业;建议走 Claude Code 官方对接(如 Bedrock/Vertex/LLM 网关/企业代理等官方路径)。

[配图建议 | 2:1 插画] 主题:左右对比:左侧“个人工作台”轻装上阵;右侧“企业机房”合规盾牌、云服务徽标。 英文提示词:Split-screen illustration: indie desk setup vs enterprise server room with a compliance shield. Minimal, 2:1.


本地一键跑:

Terminal window
npx copilot-api@latest auth
npx copilot-api@latest start --rate-limit 30 --wait --claude-code
# 新终端按提示运行 Claude Code 启动命令

**项目级固定环境:**在项目根目录 .claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:4141"
},
"permissions": {
"deny": ["Read(./.env)", "Read(./.env.*)", "Read(./secrets/**)"]
}
}

(更多可选项见官方设置文档。)


它像是一块应急电源。在关键时刻,帮你把 Vibe Coding 的节奏接上;平时,也能当低成本的联机备援。但记住——稳、合规、最少权限,才是真正让人安心的生产力。

你会把它做成长期兜底,还是只在应急时启用?你觉得呢?

用 Spokenly + Claude Code,在 Mac 张口就来 Vibe Coding 编程开发

你说、它写、立刻跑。手离键盘,代码照样飞。

这两个月我彻底被 Vibe Coding 上了瘾。 装上 Spokenly 做语音输入,再配上 Claude Code 当终端里的“能干小助手”。 一口气开三扇窗:规划写码审查。 我去倒杯茶,回来就只剩“验收”和“续命”。 睡前丢个大任务,第二天像“无良老板”查工单,一天的节奏就稳了。

这篇就把 macOS 上如何用 Spokenly 语音驱动 Claude Code 的完整打法讲透,装完即用,今晚就开干。


  • Spokenly:一键热键,任何输入框即刻听写;支持本地 Whisper 模型,离线可用,也可自带云厂商 API Key;有 Agent Mode(语音控 Mac)。
  • Claude Code:终端里的智能结对编程,npm i -g @anthropic-ai/claude-code 后,直接 claude 开整;支持 /model /config /ide /compact 等 Slash 命令,与 VSCode/JetBrains IDE 深度集成。
  • 语音交互小技巧:Option+Enter 或 /terminal-setup 解决多行输入;Esc Esc 回改上一条;三窗口分工跑通“计划-执行-审核”。

1)Spokenly(语音 → 文本)

  • 官网:https://spokenly.app/ 支持 本地 Apple Speech Recognition、** Whisper**、100+ 语言、Local-only 隐私模式Agent Mode、历史检索;Mac+iPhone。
  • App Store:免费下载,Pro 订阅可用云模型;近期版本支持 SonioxParakeet v3、历史重转写等。

2)Claude Code(终端智能体)

Terminal window
# Node.js 18+
npm i -g @anthropic-ai/claude-code
cd your-project
claude

30 秒起步;支持 MCP、执行命令、编辑文件、创建提交,还能接 IDE。

3)IDE(可选,但强烈建议)

  • VS Code/Cursor/Windsurf:在集成终端 claude自动安装扩展
  • JetBrains 家族:装插件后重启;外部终端可用 /ide 连接到 IDE。

备选:苹果原生听写 也能用,但功能与私密性不及 Spokenly(尤其在多语言与离线 Whisper)。


Step 1:配置 Spokenly

  • 安装后首启,授予麦克风权限。
  • 在偏好设置里设一个 全局 Push-to-Talk 热键(如 Right Command)。
  • 选择 Local-only,调用 Apple Speech Recognition 模型,离线更私
  • 打开 Auto language,中英混说不卡壳。
  • 模式选“在光标处输入”(它会“像你在打字”一样把文本塞进终端或编辑器)。

Step 2:启动 Claude Code

  • 在你的项目目录里执行 claude

  • 需要多行粘贴或口述长需求?

    • 直接 Option+Enter 多行;或执行 /terminal-setupShift+Enter 绑定换行。
  • 跑在 IDE 里?外部终端可先开 claude,再 /ide 连接到 VSCode/JetBrains,启用 选区上下文IDE Diff 等能力。

Step 3:语音开喷

  • 聚焦到 Claude 终端输入框 → 按住热键说 → 松开即发送。
  • 需要改前一句?Esc Esc 回到上一条编辑。

三、三窗口「Vibe Coding」流:计划|执行|审核

Section titled “三、三窗口「Vibe Coding」流:计划|执行|审核”

窗口 A:Architect(规划)

  • 口述:“帮我在 Next.js 项目新增 OAuth 登录先出任务清单和文件改动列表,每步 20 行内。”
  • 命令:/model 选合适模型;/compact 压缩上下文,保持专注。

窗口 B:Builder(实现)

  • 口述:“根据 A 的清单,写代码并自测,遇到报错自动修,必要时跑脚本。”
  • Option+Enter 说出多段代码块结构:“第一段是 API 路由,第二段是 UI 组件……”。

窗口 C:Reviewer(审查)

  • 命令:/review/cost 看 token/成本,必要时 /config 限制工具与变更范围。
  • IDE 模式下,Diff 直接在编辑器里看,手感接近本地结对。

小诀窍:不同任务用不同项目目录启动 claude,每个会话的历史 按目录隔离,切换更干净。


四、睡前“通宵大活”的口述模板

Section titled “四、睡前“通宵大活”的口述模板”

把大活拆成 4 段说清楚,Claude Code 才不走偏:

1)Goal:一句话目标 + 成功标准 2)Scope:改哪些目录,不动哪些(白名单/黑名单) 3)Checks:自测脚本、lint、单测、E2E 4)Deliverables:PR 摘要、Diff、变更日志

例: “今晚把 结算模块 从 REST 迁到 tRPC。只改 /server//app/billing/。跑 pnpm testpnpm lint 全绿。输出迁移步骤与风险点,最后给我一份 回滚指南。”


  • 说出结构: “标题:… 新段落。列表:一、二、三。” Claude 更会写文档。
  • 说出约束: “最多改三处,每处不超 30 行。” 防止“大刀阔斧”。
  • 说出边界: “仅允许 Bash:pnpm*git*。”(配合 /config 限工具)
  • 说出检查: “改完跑 npm run test,失败就回滚。”
  • 中英混说: 模块名/方法名用英文更准;Spokenly 自动识别语言。
  • 多行输入: Option+Enter 或 /terminal-setup
  • 编辑上一条: Esc Esc 回改再发。

  • 本地优先:Spokenly 的 Local-only 让音频不出机,离线 Whisper 走起。
  • 自带 Key:需要云转写可接 OpenAI/Deepgram/Groq 等,自己控成本;也可订 Pro 省配置。
  • Claude 侧成本/cost 看用量,控制模型与思考深度(配合 /model)。

  • 终端回车换行乱 → 用 Option+Enter/terminal-setup 绑定 Shift+Enter
  • IDE 扩展没装上 → 确保在 IDE 的集成终端里跑 claude;JetBrains 需重启;外部终端用 /ide 连接。
  • 语音没输入到终端 → 检查焦点在 Claude 输入框;Spokenly 热键冲突改一下。
  • 原生听写也想用 → 系统设置 → 键盘 → 打开听写、设快捷键“双击 Control”。

  • “在 /api/orders 加一个导出 CSV 的端点。先给计划再写代码最后跑测试,全程一步步展示。”
  • “把 支付页面 的状态管理从 Redux 换到 Zustand只改现有逻辑,不推翻 UI风险点列 3 条。”
  • “阅读 /server/report/ 下的 6 个模块,生成依赖关系图,并 输出可视化脚本(d2 或 mermaid 二选一)。”

语音驱动 Claude Code,不是“更花哨”,而是 更快进入「说清楚 → 出结果」 的状态。 当你把需求口述得越清,Claude 的执行越稳,Vibe 就越顺。 今晚就试试“三窗口法”,把睡前那一单交给它吧。

你觉得这种工作流最省时间的点在哪?评论区聊聊。

Claude Code 母公司 Anthropic 即将完成100亿美元融资分析

据《彭博社》2025 年 8 月 22 日报道,人工智能领域迎来重大融资消息。知名 AI 初创公司 Anthropic 即将达成一项规模空前的融资协议,预计将筹集高达 100 亿美元的资金。这一数字远超市场预期,成为 AI 行业迄今为止最大规模的单轮融资之一。

基于对Anthropic即将完成100亿美元融资报道的全面调查,本报告通过多渠道事实核查、逻辑分析和批判性思维,对该新闻的真实性、准确性和可信度进行深入剖析。我们查阅了至少15个不同渠道的报道,并进行了交叉验证,发现该报道存在多个值得关注的问题。以下将从事实核查结果、数据分析、逻辑合理性、利益动机、市场心理以及潜在风险等方面进行详细分析。


通过对彭博社、CNBC、TechCrunch、路透社等权威媒体的交叉核查,可以确认Anthropic确实在进行新一轮融资谈判,但关键细节存在显著差异。最初的消息来源(如彭博社)报道的融资金额为50亿美元,估值约1700亿美元,并非某些媒体声称的100亿美元。

融资进展的真实时间线大致如下:

  • 2025年7月29日: 彭博社首次报道Anthropic正洽谈新一轮融资,金额在30亿到50亿美元之间,估值约1700亿美元。由Iconiq Capital领投,可能有第二家领投机构参与,同时公司据称在与卡塔尔投资局(QIA)和新加坡主权基金GIC接洽参投。
  • 2025年8月20-21日: 包括彭博社在内的多家媒体更新消息称融资额度提高到最高100亿美元,成为AI初创公司有史以来最大规模融资之一。据知情人士透露,之所以金额大幅增加,是由于投资者需求强劲,使募资目标从50亿翻倍到100亿美元。
  • 投资方信息核对: Iconiq Capital确实为此轮融资的领投方已基本确认,但关于其他参与投资方的报道并不一致。一些消息来源提到TPG、Lightspeed、Spark Capital、Menlo Ventures等风投公司也可能参投,本轮还与卡塔尔投资局和新加坡政府投资公司接洽入股。不同媒体对参与方给出了略有出入的名单,尚无官方统一确认。

结论:Anthropic的新融资确有其事,但关于金额规模和投资阵容的报道存在信息出入。尤其是50亿美元提高到100亿美元的说法,目前仅基于匿名消息人士,尚未有官方公开证实。


通过对Anthropic历史估值数据的梳理,我们发现该公司估值增长轨迹存在合理性疑问:

  • 2025年3月: 完成由Lightspeed领投的35亿美元融资,投后估值约为615亿美元。
  • 2025年7月: 传闻中新一轮融资的估值已高达1700亿美元,增幅达到176%。

按年化计算,四个月估值翻近三倍,相当于年化增长率超过500%。这种估值跳跃在当前AI热潮中虽然并非绝无仅有,但通常需要非常强劲的业务基础支撑。


多个信源确认Anthropic的年化收入(Annualized Revenue Run-rate, ARR)在过去一年中呈现爆炸式增长:

  • 2024年末:约10亿美元
  • 2025年5月:约30亿美元
  • 2025年7月:约40~50亿美元

关键问题: ARR采用“单月收入 × 12”计算,这在高速增长阶段会显著高于实际全年收入水平,可能夸大真实业绩。

调查发现Anthropic收入结构存在严重集中风险

  • 前两大客户贡献约14亿美元年化收入,占总收入近28%
  • 最大客户是AI编程助手Cursor,单体贡献约5亿美元
  • Claude Code产品贡献近4亿美元年化收入

一旦主要客户流失,将对收入造成重大打击。


  • 资金消耗: 3月刚融35亿美元,5个月后又寻求50-100亿美元,暗示烧钱速度极高,推算月消耗可能上亿美元甚至10亿美元级别。
  • 估值倍数: Anthropic估值/收入倍数约 34倍,而OpenAI约 25倍。在缺乏差异化优势的情况下,估值溢价合理性存疑。
  • 消息披露与OpenAI融资几乎同步,极具“市场造势”意味。
  • 多数报道来自“知情人士”,缺乏官方确认。
  • 媒体放风更像是营造紧迫感与稀缺性,推动估值水涨船高。

  • 优势: 管理资产超800亿美元,客户包括扎克伯格、霍夫曼等硅谷顶尖人物。
  • 质疑:
    • 主要服务超高净值客户,投资决策可能带有个人偏好。
    • 历史上偏好后期、稳健投资,本次10亿美元单笔投入属罕见大额。
  • QIA与GIC参与: 涉及复杂地缘政治与国家安全审查风险。
  • CEO曾表态: 担心中东资金带来道德与监管争议,但现实资金需求迫使公司考虑接受。

  • Anthropic: 需要巨资维持与OpenAI竞争,高估值有利于吸引人才、合作伙伴及未来IPO。
  • 投资者: FOMO情绪严重,主权基金看重战略布局。
  • 媒体: “创纪录融资”自带流量,匿名消息降低报道门槛,报道动机可能混杂。

  • 估值与基本面脱钩: AI公司估值倍数远超传统科技公司。
  • 资金过度集中: 2025年上半年,美国创投资金64%流向AI。
  • 跟风投资盛行: 投资者害怕错过下一个ChatGPT,推高泡沫风险。

  • 技术护城河有限: Claude与GPT-5差距缩小,优势不明显。
  • 商业模式存疑: API调用模式面临价格战压力,算力成本居高不下。
  • 美国出口管制欧盟AI Act等法规可能限制业务扩张。
  • 主权基金参投或触发美国CFIUS审查,增加不确定性。

  • 基本属实: Anthropic确实在融资。
  • 关键数字存疑: 100亿美元融资缺乏证实,更可能是50亿美元。
  • 估值虚高: 缺乏基本面支撑。
  • 信息不完整: 存在选择性披露嫌疑。
  1. 理性看待融资新闻,避免被大数字冲昏头脑。
  2. 关注实际收入与盈利,而非估值噱头。
  3. 警惕泡沫与跟风,避免盲目投资。
  4. 等待官方确认,再作投资判断。

通过这次深度分析,我们看到在AI投资热潮中,媒体报道、公司宣传与实际情况之间往往存在显著差距。狂热之下泥沙俱下,唯有保持理性、勤于求证,才能看清真相,不被市场情绪裹挟。

用 Claude Code 开一个 Gemini Subagent

在 Claude Code 里新建一个“子代理(sub-agent)”,专门负责调用 Gemini CLI。大体量代码扫描、架构总览、安全审计,都交给 Gemini 的 1M token 上下文来跑;Claude 继续做主脑,解释结果与落地改动。省钱、省心、效率高。


做代码总览、跨仓库检索、架构梳理,Claude 再聪明也会被上下文卡脖子。 解决办法很简单:把“大胃口”的分析外包给 Gemini CLI。我们在 Claude Code 里创建一个“Gemini 分析子代理”,它只干三件事:拼命令 → 调 CLI → 原样把结果交回。Claude 不被上下文污染,专心做决策与修改,强强联合

为什么是现在? Google 正式开源了 Gemini CLI,个人账号可免费直连 Gemini 2.5 Pro,而且是 1M token 超大上下文,预览期还给到很阔的配额。这对需要整仓分析的开发者,堪称“外挂”。

配图建议(2:1 插画):一位工程师在指挥台上调度两个机器人:左侧“Claude 主代理”做规划与改动,右侧“Gemini 子代理”拉取海量代码做分析。界面元素用英文,不要中文。


思路图:主脑 + 子代理,各司其职

Section titled “思路图:主脑 + 子代理,各司其职”
  • Claude 主代理:对话、拆解任务、评审与落地修改(编辑文件、跑测试等)。
  • Gemini 子代理不做分析推理负责把请求变成 Gemini CLI 命令并执行,然后把原始输出交回
  • 上下文隔离:子代理有独立上下文,不污染主对话;适合重复复用。

  1. 安装 Gemini CLI(三选一)
Terminal window
# npx 直接跑(免安装)
npx https://github.com/google-gemini/gemini-cli
# 全局安装(npm)
npm install -g @google/gemini-cli
# 或者 Homebrew(macOS/Linux)
brew install gemini-cli

要求 Node.js ≥ 20。支持 OAuth 登录、API Key、或 Vertex AI。

  1. 登录/鉴权
Terminal window
# 推荐:OAuth(个人 Google 账号,预览期配额充足)
gemini # 按提示走浏览器登录
# 或:使用 AI Studio 的 API Key
export GEMINI_API_KEY="YOUR_API_KEY"
gemini

官方博客确认了 1M 上下文与预览期的高额度;GitHub README 给出了 OAuth / API Key / Vertex 三种姿势。

  1. 验证是否就绪
Terminal window
gemini -p "Say hello and print current directory files briefly"

在 Claude Code 里创建“Gemini 分析子代理”

Section titled “在 Claude Code 里创建“Gemini 分析子代理””

Claude Code 支持把自定义子代理存成 Markdown + YAML frontmatter 文件;项目级建议放在 .claude/agents/ 下,用户级可放 ~/.claude/agents/

新建文件.claude/agents/gemini-analyzer.md

---
name: gemini-analyzer
description: Manages Gemini CLI for large codebase analysis and pattern detection. Use proactively when Claude needs to analyze extensive code patterns, architectural overviews, or search through large codebases efficiently.
tools: Bash, Read, Write
---
You are a Gemini CLI manager specialized in delegating complex codebase analysis tasks to the Gemini CLI tool.
Your sole responsibility is to:
1. Receive analysis requests from Claude
2. Format appropriate Gemini CLI commands
3. Execute the Gemini CLI with proper parameters
4. Return the results back to Claude
5. NEVER perform the actual analysis yourself - only manage the Gemini CLI
When invoked:
1. Understand the analysis request (patterns to find, architectural questions, etc.)
2. Determine the appropriate Gemini CLI flags and parameters:
- Use `--all-files` for comprehensive codebase analysis
- Use specific prompts that focus on the requested analysis
- Consider using `--yolo` mode for non-destructive analysis tasks
3. Execute the Gemini CLI command with the constructed prompt
4. Return the raw output from Gemini CLI to Claude without modification
5. Do NOT attempt to interpret, analyze, or act on the results
Example workflow:
- Request: "Find all authentication patterns in the codebase"
- Action: `gemini --all-files -p "Analyze this codebase and identify all authentication patterns, including login flows, token handling, and access control mechanisms. Focus on the implementation details and architectural patterns used."`
- Output: Return Gemini's analysis directly to Claude
Key principles:
- You are a CLI wrapper, not an analyst
- Always use the most appropriate Gemini CLI flags for the task
- Return complete, unfiltered results
- Let Claude handle interpretation and follow-up actions
- Focus on efficient command construction and execution
## Detailed Examples by Use Case
### 1. Pattern Detection
**Request**: "Find all React hooks usage patterns"
**Command**: `gemini --all-files -p "Analyze this codebase and identify all React hooks usage patterns. Show how useState, useEffect, useContext, and custom hooks are being used. Include examples of best practices and potential issues."`
**Request**: "Locate all database query patterns"
**Command**: `gemini --all-files -p "Find all database query patterns in this codebase. Include SQL queries, ORM usage, connection handling, and any database-related utilities. Show the different approaches used."`
### 2. Architecture Analysis
**Request**: "Provide an architectural overview of the application"
**Command**: `gemini --all-files -p "Analyze the overall architecture of this application. Identify the main components, data flow, directory structure, key patterns, and how different parts of the system interact. Focus on high-level organization and design decisions."`
**Request**: "Analyze the component hierarchy and structure"
**Command**: `gemini --all-files -p "Examine the React component hierarchy and structure. Identify reusable components, layout patterns, prop drilling, state management approaches, and component composition patterns used throughout the application."`
### 3. Code Quality Analysis
**Request**: "Find potential performance bottlenecks"
**Command**: `gemini --all-files -p "Analyze this codebase for potential performance bottlenecks. Look for expensive operations, inefficient data structures, unnecessary re-renders, large bundle sizes, and optimization opportunities."`
**Request**: "Identify security vulnerabilities"
**Command**: `gemini --all-files -p "Scan this codebase for potential security vulnerabilities. Look for authentication issues, input validation problems, XSS vulnerabilities, unsafe data handling, and security best practices violations."`
### 4. Technology Stack Analysis
**Request**: "Identify all third-party dependencies and their usage"
**Command**: `gemini --all-files -p "Analyze all third-party dependencies and libraries used in this project. Show how each major dependency is utilized, identify any potential redundancies, outdated packages, or security concerns."`
**Request**: "Map out the testing strategy and coverage"
**Command**: `gemini --all-files -p "Examine the testing strategy used in this codebase. Identify test frameworks, testing patterns, test coverage areas, mocking strategies, and areas that might need more testing."`
### 5. Feature Analysis
**Request**: "Trace a specific feature implementation"
**Command**: `gemini --all-files -p "Trace the implementation of [specific feature] throughout the codebase. Show all files involved, data flow, API endpoints, UI components, and how the feature integrates with the rest of the system."`
**Request**: "Find all API endpoints and their usage"
**Command**: `gemini --all-files -p "Catalog all API endpoints in this application. Include REST routes, GraphQL resolvers, tRPC procedures, their request/response patterns, authentication requirements, and how they're consumed by the frontend."`
### 6. Migration and Refactoring Analysis
**Request**: "Identify legacy code patterns that need modernization"
**Command**: `gemini --all-files -p "Identify outdated or legacy code patterns that could be modernized. Look for old React patterns, deprecated APIs, inefficient implementations, and opportunities to use newer language features."`
**Request**: "Analyze consistency across similar components"
**Command**: `gemini --all-files -p "Examine similar components or modules for consistency. Identify variations in patterns, naming conventions, implementation approaches, and opportunities for standardization or creating reusable abstractions."`
### 7. Documentation and Knowledge Transfer
**Request**: "Generate onboarding documentation insights"
**Command**: `gemini --all-files -p "Analyze this codebase to help create onboarding documentation. Identify key concepts developers need to understand, important files and directories, setup requirements, and the most critical patterns to learn first."`
### Command Flag Guidelines:
- Always use `--all-files` for comprehensive analysis
- Add `--yolo` for non-destructive analysis tasks to skip confirmations
- Use `-p` for single prompts or `-i` for interactive sessions
- Consider `--debug` if you need to troubleshoot Gemini CLI issues

子代理文件格式、放置路径与可用工具名(Bash/Read/Write),以官方文档为准。

小贴士:你也可以直接用 /agents 交互式创建与编辑子代理,更省事。


给子代理“开绿灯”:权限与安全

Section titled “给子代理“开绿灯”:权限与安全”

为了让子代理能顺利执行 gemini 命令,建议在 .claude/settings.json白名单相关 Bash 调用;同时严格黑名单敏感文件读取:

{
"permissions": {
"allow": [
"Bash(gemini*)",
"Read(**/*.md)",
"Read(src/**)"
],
"deny": [
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)",
"Bash(curl:*)"
]
}
}

权限系统与示例配置来自 Claude Code 官方“Settings”文档。


三个“上手就能用”的实战案例

Section titled “三个“上手就能用”的实战案例”

使用方式:在 Claude Code 里直接对主代理说话,例如: “gemini-analyzer 子代理扫描整个仓库的认证实现,并把原始输出返回”。

1) 模式检索:找出认证/鉴权实现

Section titled “1) 模式检索:找出认证/鉴权实现”

Claude 指令

Use the gemini-analyzer subagent to analyze authentication patterns across the repo and return raw output.

子代理应构造并执行的命令(示例)

Terminal window
gemini -p "Analyze this codebase and list all authentication & authorization patterns: login flows, token/session handling, middleware/guards, RBAC/ABAC, and any security pitfalls. Show file paths and code excerpts when helpful."

-p 支持非交互单次分析;在仓库根目录执行即可让 Gemini 读取项目上下文,必要时可加 --include-directories 指定额外目录。


Claude 指令

Use gemini-analyzer to provide a high-level architectural overview and return the raw result.

子代理命令

Terminal window
gemini -p "Give an architectural overview: main modules, data flow, directory structure, cross-cutting concerns, and how backend APIs connect to frontend components. Output a concise map with file references."

大上下文适合整仓概览、跨层联动梳理;恰好发挥 Gemini CLI 1M token 的优势。


Claude 指令

Ask gemini-analyzer to scan for potential security issues and return raw findings.

子代理命令

Terminal window
gemini -p "Scan for potential security issues: XSS, SQL/NoSQL injection, hard-coded secrets, weak crypto, unsafe deserialization, missing input validation, authz gaps. Provide evidence snippets and file paths."

子代理只回传原始输出,由 Claude 主代理负责解读、生成修复 PR。


  • 一句话角色卡:在 description 里写上“Use proactively”,让 Claude 自动把大活派给它。
  • 成本/速度切换:分析阶段可用 -m gemini-2.5-flash 先跑一版,确认方向后再用 -m gemini-2.5-pro 精扫。
  • 固定模板:把常用提示做成片段(例如“依赖地图”“测试覆盖率报告”),复用稳定。
  • 上下文干净:子代理与主对话分离,避免一轮大扫描把主线挤爆。
  • 权限最小化:只放行必要的 Bash/Read 规则;敏感文件坚决 deny。
  • 遇错别慌:命令失败就用 --debug 重试,把日志原样返回给 Claude 排障。

这套“Claude 主脑 + Gemini 子代理”的组合,非常适合你做:整仓巡检、架构体检、迁移评估、依赖清理。 你依旧待在 Claude Code 里,把重活交给 Gemini;该省的钱省了,该省的时间也省了。下次你需要“大视野 + 可落地”,就让它们搭班。

你会把它用在什么项目上?评论区聊聊你的场景,我可以帮你把子代理提示词继续打磨

Claude Code 1.0.88:可自定义 Sonnet / Opus / Opus Plan 模型

现在你可以用两个环境变量,把 /model 的别名“sonnet、opus、opusplan”精准指向你想用的具体模型版本,团队控盘更稳、灰度更丝滑。


最近的 Claude Code 1.0.88 是一次小而关键的更新。 它没大张旗鼓,却直接解决了很多团队的“别名漂移”痛点:当 Sonnet/Opus 出新版本时,/model sonnet、/model opus 到底落在哪个具体型号? 现在你可以自己定。

这对需要稳定复现、灰度升级、合规审计的团队非常有用。 尤其是多环境(Console / Bedrock / Vertex)混用时,终于能把别名钉住。


  • ANTHROPIC_DEFAULT_SONNET_MODEL
  • ANTHROPIC_DEFAULT_OPUS_MODEL

作用:控制 /model sonnet/model opus/model opusplan 这三个别名最终指向的具体模型字符串(例如 claude-sonnet-4-20250514claude-opus-4-1-20250805 等)。

注:官方 CLI 文档明确支持“别名或完整模型名”,而“opusplan(仅规划)+ sonnet 执行”的模式早在 1.0.73 就已提供开关。此次 1.0.88 的变量让这套别名更可配置

  • 稳定可复现:锁死别名指向,PR、CI、生产一致。
  • 灰度友好:先在少量机器把 sonnet 暂时映射到“最新版”,验证好再一键全量。
  • 多云一致:不同提供方(Console / Bedrock / Vertex)下,保持同一别名映射策略。

方案 A:Shell 全局(个人/单机)

Section titled “方案 A:Shell 全局(个人/单机)”
Terminal window
# 固定 sonnet 别名到 Sonnet 4 2025-05-14 版
export ANTHROPIC_DEFAULT_SONNET_MODEL="claude-sonnet-4-20250514"
# 固定 opus 别名到 Opus 4.1 2025-08-05 版
export ANTHROPIC_DEFAULT_OPUS_MODEL="claude-opus-4-1-20250805"
#(可选)仍可手动切:/model sonnet | /model opus | /model opusplan

/model 支持别名与完整模型名;opusplan 让 Opus 只做“规划”,执行交给 Sonnet,官方曾在 1.0.73 中加入该模式开关。

方案 B:项目级 .claude/settings.json(团队/仓库)

Section titled “方案 B:项目级 .claude/settings.json(团队/仓库)”
{
"env": {
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-20250514",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "claude-opus-4-1-20250805"
}
}

Claude Code 支持在 settings.json 注入环境变量,便于团队统一下发与版本管控。

方案 C:多提供方(Bedrock/Vertex)协同

Section titled “方案 C:多提供方(Bedrock/Vertex)协同”

在不同环境各自设置以上两个变量,确保别名统一;必要时再结合区域变量与 Bedrock/Vertex 配置。


推荐的 7 个落地场景(结合日常工作)

Section titled “推荐的 7 个落地场景(结合日常工作)”

1)稳定回放/审计 安全或法务复盘时,需要“这个别名当时到底指向哪个精确型号”。把别名钉住,日志更可读,责任更清晰

2)灰度发布 在灰度机器上把 sonnet 指向最新 Sonnet(如 4 或 3.7),验证通过后统一切换,零改命令习惯;若不稳,立即回滚变量。

3)计划-执行双模配合opusplan → Opus 4.1(严谨规划),sonnet → Sonnet 4(快速执行)。长链路任务更稳,吞吐更高。

4)多云一致性 Console 在开发机、Bedrock 在生产集群。两个环境都用相同别名策略,避免“同名不同款”

5)CI / 机器人账号 在 CI 中注入两个变量,PR 机器人用同一“别名→具体型号”映射,评审口径一致

6)教学/训练营 课堂只要求“/model sonnet”,背后把 sonnet 指到你希望的稳定版,统一学员体验

7)成本与配额治理 需要控制某些场景禁止上 Opus?把 opus 映到老版本或干脆不配置,配合权限与 /permissions 管控使用路径。


  • claude /status 查看当前账号与模型信息;
  • claude /model 打开交互菜单确认别名落点;
  • 若你是 Pro 账号:官方说明 Pro 无法使用 Opus,别名指到 Opus 也会不可用(改用 Sonnet)。

  • 1.0.88 版本已在 NPM 版本页列出(前后还有 1.0.87/86/…),属近期发布。
  • 社区多篇变更速记与周刊同步提到新增 ANTHROPIC_DEFAULT_SONNET_MODEL / ANTHROPIC_DEFAULT_OPUS_MODEL,用于控制 opusplan / opus / sonnet 别名。官方文档可能存在更新滞后
  • CLI 文档确认 /model 支持别名sonnet/opus)与完整模型名二选一。
  • Opus Plan Mode 的“规划-执行分离”早先在 1.0.73 引入。

注:上游文档常分散在 Docs / Help Center / NPM / GitHub / 社区速记,因此落地前建议用 /model/status 实测验证别名映射。


1)更新:claude update(或重装最新版)。 2)设置变量(Shell 或 .claude/settings.json)。 3)验证:/model → 选择 sonnet/opus/opusplan/status 看是否命中你配置的具体型号。


小改动,大收益。 把“别名”握在自己手里,复现更稳、灰度更轻、协作更顺。现在就把团队的 sonnet / opus / opusplan 统一定标吧。

你会把 opusplan 用在哪些长链路任务里? 评论区聊聊你的实践与踩坑。

用 Claude Code 做对「Vibe Coding」:一位 FAANG 工程师的实战流水线

今年硅谷的编码风格有了新名字:Vibe Coding。 不是摆烂,也不是“AI 一把梭”。 是把 Claude Code 当成“听话的初级工程师”,让团队更快、更稳地落到产线。

一个 终端里的智能编码代理:会规划、会读写项目、会跑命令、还能用 slash commands 固化你的工作流。


FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)

Section titled “FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)”

目标:把 Claude 当“可编排的初级工程师”,人类做架构与决策,AI 执行和回报进度。

  • 写设计文档,覆盖架构、边界、集成点。
  • 过一轮资深工程师评审,把痛苦前置。这能避免后面 AI 带着你“高速跑偏”。(源自 FAANG 帖子的流程骨架。)
  • 每个新特性 只开一次 plan-mode,产出任务清单后按清单执行,稳定性显著提高。社区实证这套“刚性流程”能把 Claude 从“偶尔失控”变“像实习生那样靠谱”。
  • 给 Claude 提业务规则 → 生成单元/集成测试 → 人审 → 再让它实现代码。
  • 多个实践与文章都强调:先测后码能显著降低幻觉与回归。

把高频动作写成命令,人人可复用:

  • /spec 生成特性规格
  • /tests <feature> 产出 TDD 测试
  • /implement <feature> 严格按任务清单提交 PR
  • /context 查看上下文使用与工具调用 官方支持自定义命令与命名空间,可把团队流程沉淀进仓库
  • 一次只做一件事;限制目录与文件范围;必要时把日志/CSV pipe 给 Claude;需要时让它自己拉取数据或读链接。
  • 双人评审 + 预发验证,来源于 FAANG 实操。
  • 在终端运行 /security-review 做临时安全扫描,再提交。
  • 追踪从“提案→上线”的 Lead Time、回归缺陷率。行业里有人能做到 ~30% 提速,但以你团队的基线为准。

我们的最小落地包(复制到你的仓库)

Section titled “我们的最小落地包(复制到你的仓库)”

建议在 repo 根目录建 .claude/commands/

.claude/commands/spec.md
You are a Staff Engineer. Convert the user story into a crisp spec:
- Problem, Scope, Non-goals
- Architecture sketch & interfaces
- Risks & open questions
Return Markdown only.
.claude/commands/tests.md
You are a TDD coach. For <feature>, generate unit & integration tests first.
- Cover edge cases, error handling, contracts
- Use project’s test framework
- Do NOT implement code yet
.claude/commands/implement.md
Follow the approved plan. Implement <feature> with tiny commits.
- Reference related tests
- Explain changes in PR body
- Ask before migrating schemas

结合 /context 查看 token 与工具占用,必要时拆分子任务。


  • 把 Claude 当黑盒,一次喂一大坨需求。
  • 跳过测试、跳过评审,只看“能跑就行”。质量会迅速失真,组织会掉进“AI 速度陷阱”。
  • 多特性并行开 plan-mode,上下文漂移、重复返工。

  • 行业大势明确:开发者在快速拥抱 AI,编码与测试环节的自动化程度持续爬升。会用 AI 的团队,边际优势会越来越大
  • 但要赢在质量,必须把 工程化流程 固化到 Claude 的命令与计划里,而不是“随手聊两句让它写”。

Vibe Coding 不是摆烂。 它是把“人类的判断 + Claude 的执行力”组装成一条可量化、可审计、可复用的产线。 从今天开始,给团队加上:先设计 → plan-mode 一次 → 测试先行 → slash commands 固化 → 安全与评审收尾。能快,也能稳。

你觉得这套流水线还缺哪一环?欢迎在评论区聊聊你的经验。

pmcc 让 Claude Code 从 PRD → Epic → GitHub Issues → 生产代码

ccpm(Claude Code PM)把PRD → Epic → GitHub Issues → 生产代码连成闭环,配合 Git worktree 和并行子代理,让你不丢上下文、不堵任务、不埋雷


做 AI 编码,最怕两件事:上下文蒸发并行乱战。 结果就是返工、冲突、进度不可见。

ccpm 的做法很“工程化”:用 GitHub Issues 做唯一真相源,每一行代码都能追溯到规格。Claude 只负责执行,状态、依赖、审计都落在 Issue 里,全团队随时接力。

核心理念No Vibe Coding,所有代码都要能追溯到明确规格。


  • 规范驱动:把 PRD 结构化拆成 Epic/Tasks,再同步成 GitHub Issues。全链路可追踪
  • 并行执行:一个 Issue 不是一个人,而是多条并行工序(DB、API、UI、测试…),在独立 worktree 里并发推进。
  • 上下文保鲜:主线程只做指挥;每个代理在自己的小上下文里干活,互不污染。
  • GitHub 原生协作:Issue = 项目状态;评论 = 审计轨迹;多位人类/AI 实时接力,无需“AI 做了啥”的会。

小加分:ccpm 推荐安装 gh-sub-issue 扩展来管理父子任务;没有扩展就自动回退到任务清单,依然能跑。


PRD → Epic → Task → GitHub 同步 → 并行执行 典型指令流(在 Claude Code 里):

Terminal window
/pm:prd-new memory-system
/pm:prd-parse memory-system
/pm:epic-oneshot memory-system
/pm:issue-start 1235

每一步都有产物:.claude/prds/*.mdepics/*/epic.md、任务 md、以及对应的 GitHub Issues。


  • Issue 做“数据库”:状态就是 Issue 状态;评论天然就是审计。透明且上手零门槛
  • 多代理并行:同一 Issue 下可拆出多条工作流并发推进,显著提升吞吐。
  • Worktree 隔离:每条并行线各自独立分支/目录,冲突和上下文污染大幅减少。
  • 命令即流程:从 /pm:prd-new/pm:issue-sync把 PM 习惯固化成可执行命令
  • 本地快、云端稳:本地先落文件、再显式同步到 GitHub,速度与可控性兼得。
  • 父子任务管理:支持 GitHub Sub-issues(扩展或原生 API),层级清晰、依赖明确。

建议把 ccpm 克隆到你的项目根目录,或把 .claude 目录拷入现有项目。初次使用跑一次初始化。

Step 1|拷入模板

Terminal window
cd /path/to/your-project
git clone https://github.com/automazeio/ccpm.git .

如果你已有 CLAUDE.md,后续可用 /re-init 合并必要规则。

Step 2|在 Claude Code 里初始化

Terminal window
/pm:init

它会:安装/校验 GitHub CLI、登录、安装 gh-sub-issue 扩展、创建必要目录、更新 .gitignore、生成 CLAUDE.md

Step 3|预热上下文

Terminal window
/context:create

现在就能开新特性了:

Terminal window
/pm:prd-new your-feature

PRD → Epic → Tasks → Issues 全套产物一键成型。

gh-sub-issue 安装命令(可选但强烈推荐):

Terminal window
gh extension install yahsan2/gh-sub-issue

支持创建/关联/列出/移除子任务。


  • PRD/pm:prd-new/pm:prd-parse/pm:prd-list/pm:prd-status
  • Epic/pm:epic-decompose/pm:epic-oneshot/pm:epic-sync/pm:epic-show
  • Issue/pm:issue-start/pm:issue-sync/pm:issue-status/pm:issue-close
  • 工作台/pm:next/pm:status/pm:standup/pm:blocked 全部内置在 ccpm 的命令集里,输入 /pm:help 可查看摘要。

  • 从 0 到 1 的 MVP:PRD 不落地最要命。ccpm 用命令把“想法”铆到 Issue 和代码上。
  • 多人并行迭代:同一 Epic 拆成多条流水线,UI/API/DB/测试同步推进,减少串行等待。
  • 存量项目重构:把风险点写进 PRD → Epic,逐步切换与回滚有据可查。
  • 外包/远程协同:Issue 当项目中台,甲乙双方随时插拔,透明交付。
  • 代码审计/合规:完整的“规格 → 代码 → 提交 → 评论”链路,审计友好。

作者也在博客与社区里分享了设计动机与实践经验,值得一读。


  • 把“主线程”当指挥台:只放目标、进度、阻塞;实现细节交给子代理的上下文。
  • 善用 /pm:next:随时切换到下一个最重要的 Issue,保持团队节奏。
  • 先装好 Sub-issues:父子任务清晰后,燃尽图、日报、跨人协作都顺。

  • 没装扩展也能跑,但父子层级会退化为任务清单;装上 gh-sub-issue 体验更丝滑。
  • 别把一切堆进主会话:让每个代理在自己的上下文里“各扫门前雪”,主线程只决策。

我把 ccpm 的定义概括成 8 个字:规格落地、并行不乱。 不靠喊口号,靠命令和产物,说话。

如果你正被“上下文丢失、并行打架、进度不可见”困住,值得立刻试一把。

你觉得最想用 ccpm 解决哪类问题?评论区聊聊。

Claude Code 集成 Cursor、VS Code、JetBrains IDE

很多人装了 Claude Code,却只会在外部终端里用。 其实它已经“打通”主流 IDE:Cursor / VS Code / Windsurf / VSCodium / JetBrains 全系。 好处很直接:一键唤起、IDE 内看 diff、自动共享选中代码与诊断信息,改完还能用 IDE 原生的对比工具过一遍。


  • 快捷唤起Cmd+Esc(Mac)或 Ctrl+Esc(Win/Linux)。

  • IDE 内 diff:更清楚的修改对比,不再困在终端滚屏里。

  • 选区/当前文件上下文自动共享:让 Claude 精准理解你正在看的代码。

  • 诊断信息(Lint/语法报错)自动共享:Claude 跟着你的 IDE 红线走。

  • 插入文件引用Cmd+Option+K(Mac)或 Alt+Ctrl+K(Win/Linux)快速插入 @File#L1-99

以上都来自官方 IDE 集成说明。


VS Code(含 Cursor/Windsurf/VSCodium)一键通

Section titled “VS Code(含 Cursor/Windsurf/VSCodium)一键通”

安装与连接

  1. 打开 IDE 的集成终端
  2. 在项目根目录运行:
Terminal window
claude

VS Code 系会自动安装扩展,随后就能在 IDE 里用到上面的能力。若你从外部终端启动,输入 /ide 即可把 Claude Code 连接到当前 IDE。

确保命令行可用

  • VS Code:在命令面板运行 Shell Command: Install ‘code’ command in PATH。这样 code .、以及 Claude 的 IDE 检测都更稳。
  • Cursor:在命令面板运行 Install ‘cursor’ to shell(也可顺手装 code)。若发现 PATH 被覆盖,检查并调整优先级。

常用配置

  • 运行 /configDiff tool 设为 auto,自动使用 IDE 的 diff 视图。
  • 仍可在任何外部终端用 /ide 绑定到 IDE 会话。

JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用

Section titled “JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用”

使用方式

  • 项目根目录打开终端,运行 claude

  • 打开 Settings → Tools → Claude Code [Beta] 调整:

    • Claude command(如 claude/usr/local/bin/claude,或 npx @anthropic/claude)。
    • WSL 用户可设为:wsl -d Ubuntu -- bash -lic "claude"(把 Ubuntu 换成你的发行版)。
  • 支持 Cmd+Esc/Ctrl+Esc 快捷唤起、诊断共享、IDE 内 diff。

ESC 无法中断? JetBrains 里 ESC 可能被“切回编辑器”占用:

  1. Settings → Tools → Terminal
  2. 取消 “Move focus to the editor with Escape” 或在 Keybindings 里删掉 “Switch focus to Editor”
  3. Apply 这样 ESC 就能正常中断 Claude 的操作。

远程开发提示 JetBrains Remote Dev 需把 Claude Code 插件装在远端主机,并重启 IDE。


  • VS Code 扩展没装上

    • 确保是在 VS Code 集成终端运行的 claude
    • 确保 code/cursor/windsurf/codium 等 CLI 可用,并允许安装扩展。
  • JetBrains 插件“没反应”

    • 确保从项目根目录启动 claude
    • 检查插件启用状态,完整重启 IDE(必要时多重启一次)。
    • 远程开发请确认插件装在远端
  • 工作流建议

    • 同一个项目根目录同时打开 IDE 与 claude,共享同一套路径与文件上下文。
    • /config 设为 diff=auto、按需开启 /vim 模式;这些都是官方推荐的实战做法。

VS Code/Cursor

Terminal window
# 1) IDE 内集成终端
claude
# 2) 外部终端接 IDE
/ide
# 3) VS Code 安装 code 到 PATH(命令面板)
Shell Command: Install 'code' command in PATH
# 4) Cursor 安装 cursor 到 shell(命令面板)
Install 'cursor' to shell

JetBrains

Settings → Tools → Claude Code [Beta]
- Claude command: claude 或 npx @anthropic/claude
- WSL: wsl -d Ubuntu -- bash -lic "claude"
Settings → Tools → Terminal
- 关闭 ESC 抢焦:取消 “Move focus to the editor with Escape”
或删除 “Switch focus to Editor” 绑定

  • PR 驱动:需求 → 在分支里 claude 规划与改动 → IDE 内看 diff → 本地跑测 → 提 PR。
  • Pair-Agent:人盯规划,Claude 执行,IDE 实时看差异与诊断。
  • 多端一致:统一在项目根目录启动,保证所有人看到相同上下文与路径。 实战经验来自官方“最佳实践”文章的建议,结合我们日常使用总结。

装好不是目标,把“人机协作闭环”嵌进 IDE 才是。 今天就把你的 Cursor/VS Code/JetBrains 接上 Claude Code,试一遍 一键唤起 → IDE 内 diff → 诊断共享 → 合 PR 的全链路。 你会发现:代码改得更准,沟通更少,节奏更快

思考题:你的团队更卡在“理解老代码”还是“安全改动大模块”?评论区说说你希望 Claude 在 IDE 里多做哪一步?

Uzi 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

Uzi 是一个命令行工具,用 Git worktree + tmux 把多个 AI 编码代理并行跑起来,每个代理各自一套依赖、各开一个开发端口,写完用 checkpoint 一键合到主分支。


一个代理慢悠悠改页面,另一个代理同时重构后端,再来一个代理写测试。 多线推进的效率,远超“排队等模型”。这就是 Uzi 的工作方式:同一仓库,分枝隔离并行执行可视化监控一键合流。官方 README 给到了完整的安装、配置与工作流示例,且在 2025-06-03 发布了 v0.0.2 版本。


高并发试错:一次起 3~5 个代理,各自探索不同实现或风格,挑最优解合并。 真正的“隔离”:用 Git worktree 给每个代理开独立分支与目录,不互相污染。 自动开发环境:每个代理自动起 dev server,并分配端口,方便你即时预览。 全程托管:tmux 管会话、uzi auto 自动“回车确认”工具调用、ls -w 实时看进度和 diff。 一键收官checkpoint 把选中的代理分支 rebase+commit 回当前分支。

行业观察:也有用容器把代理隔离并行的方案;Uzi 走的是 worktree 路线,在 monorepo 里也很顺手。InfoQ 近期报道也点名对比了这两类思路。


依赖:Git、tmux、Go,以及你常用的 AI 工具(如 Claude、Codex、Cursor、aider 等)。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
# 确保 GOBIN 在 PATH 里
export PATH="$PATH:$HOME/go/bin"

根目录新建 uzi.yaml

devCommand: cd astrobits && yarn && yarn dev --port $PORT
portRange: 3000-3010

写法要点

  • devCommand 里把依赖安装也写上,因为每个代理在独立 worktree,需要自己装依赖。
  • $PORT 必须留作占位,Uzi 会自动分配端口。
  • 官方还给了 Next.js / Vite / Django 的示例行。

推荐工作流:从任务到合并,5 步走

Section titled “推荐工作流:从任务到合并,5 步走”

1)并行开工

Terminal window
uzi prompt --agents claude:3,codex:2 "Implement a REST API for user management with authentication"

指定多代理与数量,也支持 random 随机命名。

2)无人值守

Terminal window
uzi auto

自动“回车确认”工具调用与续写提示,跑着就行。

3)盯盘看进度

Terminal window
uzi ls -w

watch 模式每秒刷新,能看到 AGENT/MODEL/DIFF/ADDR/PROMPT 等。

4)中途指挥

Terminal window
uzi broadcast "Make sure to add input validation"
uzi run "npm test"

广播额外指令;也能在所有代理里跑同一命令(带 --delete 跑完关窗)。

5)选优合入

Terminal window
uzi checkpoint funny-elephant "feat: add user management API"

把命中的代理分支 rebase 到当前分支并提交信息。

开发者实战文章里也给过类似 checkpoint/kill 的用法推演,便于你按需裁剪。


一个界面组件给 3 个代理:极简风 / Material 风 / 企业风。 每个代理都起了本地端口,你直接多窗口对比,挑最好的一键 checkpoint

后端认证要不要换库?要不要分层?把 2~3 条方案平行跑,读 diff 看复杂度、读端口看性能感知,选更稳的路线。

一个代理写 API,一个写 e2e 测试,另一个写文档与示例。最后只把“都跑通”的那个合入,其它分支随时 kill 清理。


  • Uzi(worktree):轻、快、Git 原生,适合同仓多实验;对 tmux 友好。
  • 容器方案:更强隔离、更重运维、适合跨语言/系统依赖的极端场景。
  • 行业观点:InfoQ 指出 Uzi 的 worktree 隔离在 monorepo 场景能避免代理互相干扰。

  • 端口冲突portRange 够大,且别被占用。
  • 依赖重复安装:把 npm/pip install 写进 devCommand,每个代理自己装。
  • tmux 不熟:建议学会基本窗口/面板切换,提高可见性。
  • 成本与噪音:并行=更多 tokens;建议小任务先试 2~3 个代理,再扩大编队。(经验法,结合社区讨论的“并行心智负担”提醒。)
  • 安全与密钥:不要把敏感 env 硬编码进 prompt,按环境变量注入。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
export PATH="$PATH:$HOME/go/bin"
# 配置
# uzi.yaml: devCommand + portRange
# 并行开工
uzi prompt --agents claude:2,random:2 "Build a todo app with React"
# 无人值守
uzi auto
# 监控/广播/批量命令
uzi ls -w
uzi broadcast "Add error handling"
uzi run "npm test"
# 合并/清理
uzi checkpoint agent-name "feat: ..."
uzi kill agent-name | uzi kill all

并行不是炫技。它是让团队“同时走多条正确路”的生产力工具。 把 Uzi 接入你的日常流,先小规模试点,再扩到复杂项目。走通一次,你很难回去排队等模型的旧节奏。

思考题:你会先把哪个项目拆成 3 条并行路线?为什么?

VibeTree 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

VibeTree = 多 Git worktree 并行开发 + 持久终端 + Claude Code 一键接入,不切分支、不丢上下文,效率起飞。


写功能、改线上、再回到大重构……不停 git stash,上下文来回丢,太伤流。 VibeTree 这款开源桌面应用,把 并行 git worktree每个分支自带持久终端Claude CLI 深度整合 整到一起。一个项目开 N 个“分身”,各自跑任务、各自聊 Claude。


  • 并行开发:一仓多 worktree,同步推进功能/热修,告别 stash
  • 持久终端会话:每个 worktree 自带终端,状态不丢。
  • Claude CLI 集成:在每个终端直接 claude,用 /ide 连接 VS Code/Cursor,文件上下文对齐。
  • 一键打开 IDE:从 VibeTree 直达 VS Code 或 Cursor。
  • 多仓 Tab 管理:多项目并行,界面切换顺滑。
  • 跨平台:macOS / Windows / Linux,提供安装包。当前最新版 v0.0.1(Alpha)

小提醒:仓库 Issues 里有用户反馈的早期问题,例如 Windows Defender 误报macOS 15.6 ARM64 包被标记为损坏 等,安装前可以先看一眼。


为什么用 worktree,比多 clone/频繁切分支更香?

Section titled “为什么用 worktree,比多 clone/频繁切分支更香?”
  • 一仓多目录:每个目录就是一个分支的“工作副本”,共享 .git轻量且互不干扰。
  • 切换零成本:线上告急?直接进 hotfix 的工作目录,功能分支不受影响。

  1. 前往 Releases 下载:
  • macOS:.dmg(Intel & Apple Silicon)
  • Windows:.exe
  • Linux:.AppImage.deb 双击安装即可。
Terminal window
# 安装依赖
npm install
# 开发调试
npm run dev
# 生产构建
npm run build
# 打包应用
npm run package

以上脚本已在仓库配置好。

前置依赖:已安装 Git;如需 AI 能力,建议安装 Claude Code CLI(npm 一条龙,几分钟起飞)。


  • 新建功能分支 worktree,同时再建一个 hotfix worktree。
  • 两边各有一个持久终端,各聊各的 Claude。线上炸了也不慌
Terminal window
# 在项目根目录旁创建两个工作目录(示例)
git worktree add ../proj-feature -b feature/checkout main
git worktree add ../proj-hotfix -b hotfix/urgent main

原理:worktree 让“一个仓库,多套工作目录”成为原生能力。

  • A worktree 做大重构;B worktree 保持干净基线,随时对比/回归。
  • 两个终端里开 claude,让 AI 帮你“拆分任务 + 撰写测试”。
  • 在对应 worktree 的终端里:claude → 输入 /ide,即刻连接当前打开的 VS Code/Cursor。
  • Claude 与 IDE 共享同一项目根目录,上下文一致,沟通更准。
  • VibeTree 的 Tab 界面 同时开多个仓库,卡点切换不乱线。
  • 黑/白主题跟随系统,手动也能切。
  • 终端里 claude 即用;需要个性化外观、状态行等,可用 /config 调整。

Terminal window
# ① 安装 VibeTree(或源码构建)
# ② 准备两个工作目录(feature & hotfix)
git worktree add ../app-feature -b feature/payflow main
git worktree add ../app-hotfix -b hotfix/checkout main
# ③ 打开 VibeTree:在两个 worktree 里各开一个终端
# ④ 终端输入 claude;如需连 IDE,输入 /ide
  • 现在你可以:在 feature 里写新功能;hotfix 里复现并修复线上。
  • 两个空间互不打扰,两个 Claude 同时在线

路线图与已知问题(透明预期)

Section titled “路线图与已知问题(透明预期)”
  • 路线图:将支持 Claude 完成/需要输入的系统通知移动端访问 Claude Code 等。
  • Alpha 状态:请关注 Issues 区的 Win 误报macOS ARM64 包“损坏”提示隐私文档补充首次启动引导 等讨论。

  • 独立开发者/小团队:需求多而杂,必须并行推进。
  • AIGC 工作流玩家:想把 Claude 真正嵌入分支与终端。
  • 运维与应急:线上一响,切到 hotfix 工作目录,零切换成本

VibeTree 不是再造 IDE,它是让“并行 + AI”落地的操作系统级小工具。 把“一个仓库多工作区”的底层优势,和 Claude 的上层智能,组合成可复制的日常节奏。 你会惊讶:不切分支的每一天,都更专注。

你觉得 VibeTree 最打动你的点是哪一个?评论区聊聊。

Claude Code 伴侣:一键号池切换、第三方模型接入、日志可观测

给常年折腾 Claude Code 的你,一个更稳、更透明的“中控台”。


用 Claude Code 写代码很爽,但上游端点不稳、来回切换麻烦、日志抓不到就很心累。 Claude Code 伴侣(Claude Code Companion)把这一切打包成一个本地 API 代理:拖拽排序就能优先级切换号池,异常会自动故障转移,还自带可视化管理台完整请求/响应日志。新手也能 10 分钟起飞。


支持多端点优先级重试 + 故障转移。某个号池抽风,自动切到下一个,恢复后再拉回。你几乎感知不到抖动

内置 /admin 管理台,能增删改端点、看实时日志、配路由规则。排障从“猜”变“看”。

原生 Anthropic,也支持OpenAI 兼容入口,像 OpenRouter、火山千问、Moonshot K2、GLM 这类都能接;配好默认模型名就行。

一行环境变量即可关掉非必要上报/遥测;企业或重视隐私的个人很刚需。


  • 多端点负载均衡 + 故障转移
  • 上游响应格式校验(不合规就重连)
  • OpenAI 兼容模型接入
  • 智能故障检测/恢复
  • 标签路由(按路径、Header、内容分流)
  • 请求日志 + Web 管理(/admin) 以上均出自官方 README。

到 Releases 选你的平台(Win/Linux/macOS Intel/ARM),解压即可。单文件运行,无外部依赖

双击或命令行启动,目录会生成默认 config.yaml

浏览器访问 http://localhost:8080/admin,在 Endpoints 页添加上游端点(URL、鉴权、类型:Anthropic / OpenAI 兼容)。 拖拽即可调整优先级,实时生效

在 Claude Code 运行环境里设置:

Terminal window
# 必备:把请求打到本地代理
export ANTHROPIC_BASE_URL=http://localhost:8080
# 必填但可随意:非空即可
export ANTHROPIC_AUTH_TOKEN=dummy-token
# 建议:拉长客户端等待,避免上游超时导致前端先断
export API_TIMEOUT_MS=600000
# 建议:关闭非必要流量(遥测/错误上报/bug 命令/自动更新)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

说明:ANTHROPIC_AUTH_TOKEN/CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 等变量均在官方文档有说明或等价配置;BASE_URL 路由 LLM 网关也在官方给出标准做法。

补充:如果你接 OpenAI 兼容网关(如 LiteLLM/OpenRouter 等),官方推荐统一网关地址方式: export ANTHROPIC_BASE_URL=https://<your-gateway>(再配 token/默认模型)。


把多个号池/上游按常用→备用顺序添加,靠拖拽排序。某个失效会自动拉黑并转发到下一个;恢复后后台检测再放行。无需重启代理或 Claude Code

  • 官方提供 Anthropic 形态入口的(如 GLM、K2),直接当 Anthropic 端点用。
  • 只有 OpenAI 兼容入口的(如 OpenRouter、部分国内云),添加OpenAI 兼容端点,把默认模型名填上即可。 这套接法在 README 已明确说明,另外像 DeepSeek 也公开了 Claude Code 直连指引(设置 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN、模型名)。

基于请求路径、Header 或内容动态分流到不同端点,适合做稳定性灰度成本路由场景特化

/admin 查看实时请求/响应日志,定位 4xx/5xx、超时点、返回格式异常;支持端点拉黑/恢复观察。


进阶:把它当“企业级 LLM 网关”的前哨

Section titled “进阶:把它当“企业级 LLM 网关”的前哨”
  • 与 LiteLLM/自建网关配合:官方文档给了LLM Gateway方案,统一鉴权、用量追踪、成本控制、审计与模型路由。Claude Code 通过 ANTHROPIC_BASE_URL 对接即可。
  • 更精细的隐私/遥测开关CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 一把梭,也可分别用 DISABLE_TELEMETRYDISABLE_ERROR_REPORTINGDISABLE_BUG_COMMANDDISABLE_AUTOUPDATER 等变量精确控制。

Q1:Claude Code 不走代理? 检查是否在同一 shell设置了 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN;项目级 settings.json 也能统一注入 env

Q2:第三方模型报 400/格式不符? OpenAI 兼容端点需选“OpenAI 兼容”类型,并正确设置默认模型名;伴侣会校验返回是否符合 Anthropic 协议,不符会触发重连。

Q3:我能用自带的超时控制吗? 可以。把 API_TIMEOUT_MS 调大,避免前端先超时导致误判失败;Bash/MCP 等也有各自的超时变量。


  • 使用第三方网关/号池前,确认服务合规条款允许数据不被滥用
  • Claude Code 官方已提供数据使用关闭非必要流量的选项,强烈建议开启。

Claude Code 伴侣的定位很清晰:做你本地的“稳定中控 + 透明路由器”。 从今天开始,把端点管理、模型切换和问题排查“图形化”,让 AI 编程真的省心

你觉得还应该加哪些“自动化小功能”?例如成本优先/速度优先一键切换?评论区见!


macOS/Linux:

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8080
export ANTHROPIC_AUTH_TOKEN=dummy-token
export API_TIMEOUT_MS=600000
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
claude

Windows PowerShell:

Terminal window
$env:ANTHROPIC_BASE_URL="http://localhost:8080"
$env:ANTHROPIC_AUTH_TOKEN="dummy-token"
$env:API_TIMEOUT_MS="600000"
$env:CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC="1"
claude

如需接入网关(如 LiteLLM/OpenRouter),把 ANTHROPIC_BASE_URL 改成网关地址即可。

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Section titled “Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]”

有人在网上爆料,部分 Claude Code Max(20x) 用户,已经能用 /model sonnet[1m] 切到 Sonnet 4 的 1M 上下文。Anthropic 官方也确认 Sonnet 4 的 1,000,000 token 长上下文已公开测试,但主要先在 API / Bedrock 放开,桌面端与 Claude Code正逐步跟进,少量用户可能已“灰测”到。


1M 上下文意味着你可以把整个中型代码库、成打的技术文档、或一摞合同一次塞进来做分析,少切块、少来回。官方口径:最大约 75,000 行代码/几十篇论文一口气吃下去,比之前翻 5 倍。目前标注为 Public Beta(API、Amazon Bedrock 已开,Vertex “即将”)。

社区侧的实测也越来越多:媒体、博客、Hacker News、Reddit 都在讨论。


现在谁能用?“Max 20x” 真的能开?

Section titled “现在谁能用?“Max 20x” 真的能开?”
  • 官方确认:Sonnet 4 的 1M 窗口 已上线 API,且是 Beta,并带有 beta header(context-1m-2025-08-07) 的要求;Amazon Bedrock 已接入;Vertex “即将支持”。
  • 订阅侧Claude Max 计划合并了 Claude App 与 Claude Code,标称 “最高 20x” 使用额度。这也是大家口中的 “Max 20x”。
  • 社区口碑:有用户反馈 Max 20x 订阅里已经能切到 1M,但也有人 报错;很可能是分批灰度或地区/账号白名单差异。别急,先试再说

小结:API 有官方实锤Claude Code/桌面端逐步放量。你可能已被“悄悄开通”,也可能还在队列里。


三步尝鲜:在 Claude Code 里切到 1M

Section titled “三步尝鲜:在 Claude Code 里切到 1M”

Step 0:更新到最新 Claude Code

Terminal window
npm i -g @anthropic-ai/claude-code

或者

Terminal window
claude update

参考官方 Quickstart/CLI 文档。

Step 1:在会话里执行

> /model sonnet[1m]
⎿ Set model to sonnet[1m] (claude-sonnet-4-20250514[1m])

这是 内置 slash 命令的合法选项之一(社区 issue 的错误日志直接列出了 sonnet[1m])。

Step 2:随便发一句话 触发一次真正请求,看看是否成功。如果报错,不怪你——可能还没轮到你的账号

Step 3:检查当前模型/状态

/status

用于查看账户与系统状态,确认是否切到 1M。

进阶:用 CLI 直接带模型

Terminal window
claude --model claude-sonnet-4-20250514

1M 模式通常需要服务端开关/白名单,或对应 beta 能力,并非写明就一定能用。


1)整库理解与重构导航README、架构图、核心模块、关键测试打包丢进来,让它出系统级地图重构计划。媒体实测称长窗下的跨文件推理更稳。

2)大部头文档合评 一次塞入多份 技术方案/合规条款/合同,让它做对比与风险点清单,再让它给出变更建议可追踪任务

3)代码库-变更影响评审 拉取最近 N 个 PR + 依赖图,让它评估回归风险、生成测试清单、补充安全/性能 check

实操小贴士:长窗 ≠ 万能。官方与开发者都提醒:上下文越大,越需要清晰的定位与指令,否则容易“吃得多、消化慢”。


  • API 价格:超过 200K 输入 token会按照长上下文费率计价;1M在 Beta 阶段对 部分组织/限额开放。
  • Claude Code 订阅:虽然不按 token 明码计费,但更大的上下文更费额度/更慢。建议配合 /compactCLAUDE.md 做摘要与指令约束。

  • “设置成功但一发消息就报错”:多见于账号未开地区灰度。确认自己是 Max(20x),多试几次或换时段。
  • “命令不识别 / 选项无效”:升级到最新版,检查 /model 的可选列表;社区日志显示 sonnet[1m] 已在可选枚举中出现。
  • API 侧调不通:记得加 beta header:context-1m-2025-08-07

想做个玩笑梗,在群里发一张截图装一秒“1T 上下文已支持”。别当真,大家图一乐就好。


一是更新并试试 /model sonnet[1m],你可能已经被开通了。 二是练好“长上下文使用习惯”:明确目标、分段聚焦、定期 /compact。等官方全面放量,你会跑得更快。

  • 你觉得 1M 对真实项目交付的提升有多大?
  • 你更倾向于 “一口吃下” 还是 “拆分—对齐—合并” 的工作流?
  • 你已经灰测到 1M 了吗?欢迎留言晒一张 /status 截图(注意隐私)。

claude-code-proxy 用 Claude Code 跑 OpenAI/Gemini 模型

把 Claude Code 的请求“翻译”给 OpenAI 或 Gemini(也可直连 Anthropic),零改代码、一条命令接入、支持流式与模型前缀自动匹配。


不少同学想用 Claude Code 的工作流,但又想走 OpenAI/Gemini 的模型与价格体系。 切换 SDK、改调用格式、做权限与日志,一堆坑。

这就是 claude-code-proxy 的用武之地: 它让 Anthropic 协议的客户端(如 Claude Code),无缝转到 OpenAI/Gemini,或继续走 Anthropic,还把响应转回 Anthropic 格式,前端毫无感知。


  • 三种后端一键切换PREFERRED_PROVIDER 设为 openai / google / anthropic不想映射?选 anthropic,走直连模式

  • 模型前缀自动处理:自动给 OpenAI/Gemini 模型加 openai/gemini/ 前缀,避免手抖写错。

  • Haiku/Sonnet 智能映射haiku → SMALL_MODELsonnet → BIG_MODEL;默认映射到 gpt-4.1(-mini)gemini-2.5-pro / 2.0-flash

  • 全程 LiteLLM 撑腰:统一网关、路由/回退、用量追踪、预算限额、日志与插件扩展。

  • 完全兼容流式/非流式:对 Claude 客户端透明。


目标:本机起一个 8082 端口的代理,Claude Code 直接指向它。

1)克隆与安装依赖(用 uv 超快)

Terminal window
git clone https://github.com/1rgs/claude-code-proxy.git
cd claude-code-proxy
# 安装 uv(一次性)
curl -LsSf https://astral.sh/uv/install.sh | sh

uv 负责基于 pyproject.toml 解析/安装依赖,省心省时。

2)配置环境变量

Terminal window
cp .env.example .env
# 编辑 .env,填好你的 API KEY、首选后端与模型

关键项:

  • OPENAI_API_KEYGEMINI_API_KEY、(可选)ANTHROPIC_API_KEY
  • PREFERRED_PROVIDER=openai|google|anthropic
  • BIG_MODEL / SMALL_MODEL(用于 Sonnet/Haiku 映射) 详见 README 表述。

Gemini API Key 可在 Google AI Studio 一键创建与配置为环境变量。

3)启动服务

Terminal window
uv run uvicorn server:app --host 0.0.0.0 --port 8082 --reload

--reload 适合开发期。


安装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code

官方建议别用 sudo,权限问题请看文档。

指向代理并启动:

Terminal window
ANTHROPIC_BASE_URL=http://localhost:8082 claude

此后,Claude Code 的 Haiku/Sonnet 会按你的 .env 映射到 OpenAI/Gemini 或直连 Anthropic。


三种常用映射模板(可直接复制)

Section titled “三种常用映射模板(可直接复制)”

A. 默认走 OpenAI(省事稳妥)

Terminal window
PREFERRED_PROVIDER=openai
OPENAI_API_KEY=sk-...
# 可选:BIG_MODEL/SMALL_MODEL
BIG_MODEL=gpt-4.1
SMALL_MODEL=gpt-4.1-mini

Haiku/Sonnet → openai/SMALL_MODEL / openai/BIG_MODEL

B. 更偏爱 Gemini(成本友好/响应快)

Terminal window
PREFERRED_PROVIDER=google
GEMINI_API_KEY=...
OPENAI_API_KEY=sk-... # 作为回退
BIG_MODEL=gemini-2.5-pro-preview-03-25
SMALL_MODEL=gemini-2.0-flash

Haiku/Sonnet → 对应 gemini/ 前缀;不在白名单时回退 OpenAI。

C. 只做「Anthropic 透明代理」

Terminal window
PREFERRED_PROVIDER=anthropic
ANTHROPIC_API_KEY=sk-ant-...
# 忽略 BIG/SMALL,直传 Anthropic

好处:保留日志/中间件/统一入口,同时不做映射


  • 统一接口接 100+ 模型(OpenAI、Anthropic、Google 等)。
  • 支持 路由/回退、负载均衡、预算限额与用量追踪
  • 可定制 日志、告警、插件,方便合规与审计。

1)团队网关:把 Claude Code、脚本与后端服务的 LLM 流量,都收敛到这台代理,集中控费与审计。

2)成本/性能 AB 切:一键在 OpenAI 与 Gemini 间切换,看谁成本更优、谁推理更准。

3)直连 Anthropic + 增强治理:保留真实模型与响应,同时复用代理的日志与限额模块。

4)本地开发:开发机开 8082,Claude Code 直连,零改项目

5)多模型兜底:OpenAI 挂了自动回退,保障研发不中断(通过 LiteLLM 路由/回退)。


  • 模型名前缀:交给代理自动加前缀,避免 gpt-4o 写成 gemini/gpt-4o 这种乌龙。
  • 权限与密钥:Gemini Key 要到 Google AI Studio 申请;环境变量要在运行时可见
  • NPM 权限:安装 Claude Code 报权限错,按官方指引处理,不要强行 sudo
  • 端口冲突:8082 被占用就改 --port
  • 生产部署:建议加反向代理与鉴权(如 Nginx + Basic Auth),并启用 LiteLLM 的预算/限频/日志

  • uv run uvicorn ... 成功监听 8082。

  • npm i -g @anthropic-ai/claude-code 安装无误,claude doctor 自检通过。

  • 运行:

    Terminal window
    ANTHROPIC_BASE_URL=http://localhost:8082 claude

    发起一次简单对话,观察代理日志是否命中目标模型。


claude-code-proxy 让你把 Claude Code 的生产力,和 OpenAI/Gemini 的性价比与生态,拼在一起。 今天就把代理跑起来,一键切模型,立刻提效。

CodeGPT 让 Claude Code 集成 VSCode, JetBrains 和 Android Studio

装上 CodeGPT 扩展,你就能在 VSCode 和 JetBrains 里直接跑 Claude Code,看得见计划随时暂停现场改任务,边干边纠偏,效率翻倍。支持 JetBrains 全家桶同理。


还在命令行里和 Claude Code“盲聊”? 现在有更顺手的玩法:把 Claude Code 带进编辑器 UI

有了 UI,你能看到规划树、随时插队、撤回修改。 遇到复杂需求,不用再“等结果揭晓”,中途就能校正方向。 这才像真的结对编程。


为什么要在 VSCode 里用 Claude Code UI?

Section titled “为什么要在 VSCode 里用 Claude Code UI?”
  • 少走弯路:计划可视化,偏了立刻拉回来。
  • 操作直觉:按钮就能暂停 / 继续 / 编辑 / 新增任务。这类 UI 集成已经在 VSCode 生态里成熟可用。
  • 不离开编辑器:和代码、Git、测试工具同屏联动。CodeGPT 本身就面向多模型、全仓理解

注:Anthropic 官方也提供 VSCode 扩展与 IDE 集成,但核心仍是从终端启动的工作流;UI 集成是对体验的加分。


  1. 打开扩展市场,安装 CodeGPT: Chat & AI Agents

  1. 登陆 CodeGPT 账户(VSCode 弹出浏览器确认)。

  2. 在 CodeGPT 里选择 Anthropic 作为提供商,并按提示连上你的密钥 / 账户授权。

  1. 进入侧边栏的 CodeGPT 面板,选择 Claude 系列模型,开启会话和计划模式

VSCode Marketplace(官方入口):CodeGPT

JetBrains(IntelliJ / PyCharm / Android Studio 等)

Section titled “JetBrains(IntelliJ / PyCharm / Android Studio 等)”
  • 在插件市场搜索并安装 CodeGPT: Chat & AI Agents,登录同上,选择 Anthropic。

在 VSCode 侧栏的会话面板里,你会看到:

  • Plan / Thinking 模式入口(先规划再执行,必要时提升思考深度)。
  • 暂停/继续按钮,随时打断长流程。
  • 任务列表可修改、可插入新子任务。
  • Checkpoints / 还原,误改也不怕。 这些交互在 VSCode 的 Claude Code UI 类扩展中已经被验证,如 “Claude Code Chat” 等展示了计划与思考模式、历史与还原等能力;CodeGPT 宣布也已支持在 VSCode 内运行和控制 Claude Code 规划流程

  • 在面板输入:“定位并修复最近异常日志的根因,先给出计划,再修改最小影响范围代码,附自测步骤。”
  • 看到计划后,删掉不必要的子任务,再运行。
  • 提示词追加:“修改前先生成 diff 预览。”(便于 Review)

计划驱动的工作流已被不少开发者验证好用。

  • 让它先产出重构计划回归点清单,再批量落地。
  • 中途插入新任务:“为修改过的模块补充最小集单测”
  • 出现跑偏,立即暂停,在任务树里改写指令再继续。
  • 指令:“生成一个可运行的 X 技术栈最小 Demo,列出步骤与目录变更,再逐步创建文件并解释。”
  • 新增任务:补上 Dockerfile / CI。
  • 最后用 Checkpoints 还原比较不同方案。

  • Plan First:先让它只产出计划,不动代码;你确认后再执行。
  • 小步提交:让它每次修改都输出 diffcommit 信息,方便回滚。
  • 文件上下文:用 @文件名 或“选中文件 → 右键发送到会话”提升命中率。
  • 模型选择:项目大、推理复杂时选 Sonnet / Opus;轻量问答选小模型。CodeGPT 支持多家模型统一调用。

能力/形态CodeGPT + VSCode UIAnthropic 官方 VSCode 扩展纯终端 CLI
计划可视化/暂停/改任务(UI 面板)有基础集成,主打从 IDE/终端启动无 UI,靠文本
多模型与知识图谱(支持多提供商、知识图谱)仅 Anthropic 模型仅 Anthropic 模型
上手难度低(市场一键装)低(扩展 + CLI)中(命令行)
JetBrains 支持(官方插件)有(IDE 集成指南)有(终端即用)
适合人群边看计划边改的团队喜欢官方原味 + 终端流键盘流、自动化爱好者

资料来源:CodeGPT VSCode/JetBrains 插件页;Anthropic IDE 集成与 VSCode 扩展页;社区 UI 扩展展示“Plan/Thinking/Checkpoint”等控件。


  • 授权方式:按扩展提示连接 Anthropic 账户(API Key 或浏览器授权流程)。
  • 隐私承诺:CodeGPT 宣称 SOC2 Type II、不拿你的代码训练模型,可开启隐私模式。
  • 计费:Claude Code 走 Anthropic 账户计费;启用前确认额度与团队配额。

  • VSCode:CodeGPT: Chat & AI Agents(市场页)。
  • JetBrains:CodeGPT: Chat & AI Agents(插件页)。
  • Anthropic 文档:Claude Code IDE 集成 / 概览

另外,CodeGPT 团队已公开宣布“在 VSCode 内可运行 Claude Code 并控制规划过程”;这是本文所述 UI 体验的直接来源。


把 Claude Code 搬进编辑器后,你不再是“等它跑完再看”。 而是像带实习生一样,随时停、随时改、随时加。 这就是人机协作最好看的样子。

你会把它用在团队的哪条流水线上?你觉得呢?

用苹果 iOS 订阅 Claude Code 的独享会员账号,享受尼日利亚区 6 折优惠价

最近,不少小伙伴问我:Claude Code 太好用了,但要么没海外信用卡订阅,要么觉得订阅太贵,有没有省力、省钱的办法?
有的!今天就来分享一份超实用保姆级攻略,手把手教你用苹果 iOS 账号跨区(尼日利亚区),再用礼品卡充值,低价拿下 Claude Code 会员。

整个流程不复杂,准备好手机和一点耐心,跟着做就行啦~


简单一句话:便宜!

不同地区的 App Store,订阅价格差别特别大。尼日利亚区的 Claude 定价相对美区和其它地区都更友好,换个区相当于直接打 6 折。再配合礼品卡充值,划算到飞起。

人民币价格(按照1 USD ≈ 7.25 RMB 折算):

方案官网价 (USD)美区 iOS (USD)尼日利亚 iOS (NGN)尼日利亚 ≈ (USD)尼日利亚 ≈ (RMB)相比美区 iOS 优惠相比官网价 优惠
Pro$20$20₦14,900$9.68¥70.2$10.32 (-51.6%)$10.32 (-51.6%)
Max (5x)$100$124.99₦100,000$64.94¥471.8$60.05 (-48.0%)$35.06 (-35.1%)
Max (20x)$200$249.99₦200,000$129.87¥942.6$120.12 (-48.0%)$70.13 (-35.1%)

👉 换算逻辑:

  • Pro:$9.68 × 7.25 ≈ ¥70.2
  • Max (5x):$64.94 × 7.25 ≈ ¥471.8
  • Max (20x):$129.87 × 7.25 ≈ ¥942.6

上手之前,先保证你有:

  • 一台 iPhone / iPad;
  • 一个备用 Apple ID(最好新注册一个,别动主号,以免影响现有订阅和应用库);
  • 尼日利亚区礼品卡(海鲜市场能买到,找靠谱卖家就行);
  • 一个海外邮箱 & 海外手机号(Claude 注册要用)。

准备完这些,就可以开始了。


操作很简单:

  1. 打开【设置】 → 点击你头像进去;
  2. 找【媒体与购买项目】 → 【查看账户】;
  3. 点【国家/地区】 → 选择【尼日利亚 Nigeria】;
  4. 地址随便填(比如 Lagos 的常见地址),支付方式选【无】;
  5. 成功后,你的账号就是尼日利亚区啦。

改好地区后,接下来就是往账号里“充钱”:

  1. 拿到你买的尼日利亚 App Store 礼品卡兑换码;
  2. 打开 App Store → 点击头像 → 【兑换礼品卡或代码】;
  3. 输入兑换码 → 确认 → 看到余额到账。

这就相当于给自己准备了一张尼日利亚区的“购物卡”。


  1. 去 Claude 官网或 App 里注册;
  2. 用海外邮箱;
  3. 收不到验证码?需要海外手机号,去找常见虚拟号平台接个短信就行;
  4. 注册完成,就能登录啦。

  1. 在尼日利亚区 App Store 搜索“Claude”,下载;
  2. 登录你刚刚注册好的账号;
  3. 打开会员中心,选择订阅套餐;
  4. 付款时用刚刚礼品卡充值的余额,直接支付!

搞定 🎉!现在你就用上了优惠价的 Claude 会员。


  • 一定用小号操作:不要轻易动主 Apple ID,不然可能影响你正在用的订阅和应用;
  • 礼品卡要认准靠谱卖家:避免买到黑卡或兑换失败的;
  • 跨区永远有风险:苹果可能调整规则和汇率,要随时关注;
  • Claude 不同地区可能下载受限,如果遇到下不了的情况,可以准备个梯子。

其实整个流程看似啰嗦,但真做起来很快:10 分钟搞定+稳定省钱
订阅 Claude 后,你就能随时让这个强大的 AI 帮你生成代码、写文案、总结内容、灵感辅助,效率杠杠的。

所以别犹豫啦,撸起袖子试试,说不定一个月就能省下一顿大餐的钱~

iOS 苹果订阅 Claude Code 会员服务

目的:用 iPhone/iPad 在 App Store 成功订阅 Claude(Pro/Max),支持后续续费和升级。 对象:需要在Claude 支持的地区使用、希望走苹果内购的同学。


  • 省心:用苹果账单统一管理,随时改套餐、随时取消。
  • 安全:礼品卡/Apple Account 余额支付,不暴露真实卡号。
  • 同步:iOS 原生 App,和网页版数据打通。

1)注册 Claude 账号(海外邮箱 + 支持地区手机号)

Section titled “1)注册 Claude 账号(海外邮箱 + 支持地区手机号)”
  • 打开 claude.ai,用邮箱注册并登录。随后会要求手机验证
  • 必须使用Claude 支持地区的手机号码;官方明确要求“支持地区手机号才可登录”。(不要用临时号,风控高)

小贴士:邮箱用 Gmail/Outlook 都可;若手机号之前绑定过别的账号,需要联系客服解绑旧号再换绑。


2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)

Section titled “2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)”
  • 进入 设置 → 你的名字 → 媒体与购买项目 → 查看账户 → 国家/地区,按流程更换。

  • 改区前必须满足:

    • 余额清零
    • 取消影响改区的订阅并等到周期结束;
    • 准备新地区可用的支付方式(可用 Apple 账户余额/礼品卡)。
  • 你在家庭共享里,可能无法改区,需要先退出家庭组。

查询新地区支持的付款方式:见苹果官方列表(多数地区可用Apple Account 余额/礼品卡)。


3)购买该地区的 App Store / Apple Gift Card(常见是美区)

Section titled “3)购买该地区的 App Store / Apple Gift Card(常见是美区)”
  • 礼品卡是严格分区的:只能在购卡所属国家/地区使用,跨区无法兑换。
  • 不要买错卡种Apple Store(线下零售)礼品卡无法在 App Store 里兑;要买Apple Gift Card / App Store & iTunes类型。
  • 务必确认面值/地区/卡种与 Apple ID 完全一致,优先选择正规授权渠道

  • 打开 App Store → 头像 → 兑换礼品卡或代码 → 输入/扫码卡背16 位代码,完成后会显示Apple Account 余额

余额规则补充:部分订阅/场景对余额有例外,以当地规则为准(大多数 App 内购可直接走余额)。


5)下载 Claude App 并在 App 内订阅

Section titled “5)下载 Claude App 并在 App 内订阅”
  • 在 App Store 搜索 “Claude by Anthropic”,下载安装。

  • 打开 App,用你的 Claude 账号登录,在订阅入口选择计划并走苹果内购

  • 美区价格(以商店显示为准)

    • Claude Pro 月付 $20
    • Claude Pro 年付 $214.99
    • Claude Max 5x 月付 $124.99
    • Claude Max 20x 月付 $249.99 (不同国家税费/定价会有差异)

步骤关键要点常见坑位
注册 Claude支持地区 + 手机号验证临时号/非支持地区手机号被拒;多次绑定需解绑旧号
Apple ID 改区余额清零、订阅取消、准备新地区付款方式家庭共享阻塞;余额不足一单价时无法清零
买礼品卡严格同区,同卡种买到 Apple Store 卡无法在 App Store 用;买错地区无法兑换
兑换App Store → 头像 → 兑换礼品卡或代码16 位码被输错/磨损;代码提示“需在其他商店兑换”
订阅App 内走 IAP,优先用余额少数地区余额对部分订阅有限制,以当地规则为准

(官方依据:支持地区/手机号要求;改区前置条件;礼品卡分区与不可跨区;兑换步骤;付款方式与价格。)


  • 遵守条款:Claude 仅面向官方支持的国家/地区用户使用;注册/登录需符合所在地与手机号要求。
  • 礼品卡跨区无效:买错地区/卡种无法兑换,苹果不支持跨区转移余额。
  • 改区前置:有余额、有订阅、在家庭共享中,都可能无法改区。按官方流程处理。

Q:余额没花完,改区卡住怎么办? A:用余额购买可用的数字内容到精确清零;若余额不足一单价,联系 Apple 支持处理。

Q:用余额能不能付 Claude? A:多数地区 App 内购支持Apple Account 余额;但个别地区/订阅有例外,以当地条款为准。

Q:App 在我选的商店能下吗? A:Claude iOS App 可在支持地区的 App Store 下载,名称 Claude by Anthropic


结语|把 Claude 变成你的“随身工作台”

Section titled “结语|把 Claude 变成你的“随身工作台””

到这一步,你已经打通:支持地区账户 → Apple 改区 → 礼品卡充值 → App 内订阅。 接下来,把 Claude 当成你手机里的“副驾驶”,写作、翻译、笔记、拍照识图都能一把梭。

你觉得呢?

  • 你会把 Apple ID 设在哪个区?为什么?
  • 用过 Pro/Max 的朋友,真实感受如何?

Claude Code /context 命令可视化上下文窗口、Token 占用、MCP 调用和记忆文件

一句话/context 会把当前会话的上下文窗口、Token 占用、MCP 调用痕迹、以及被加载的 CLAUDE.md 记忆文件都可视化,方便你做“减肥、控糖、查泄漏”。(该功能在 Claude Code v1.0.86 里出现,来自社区实测反馈。)

你是不是也遇到过:聊着聊着,突然被自动压缩打断,关键信息被“折叠”得七零八落?

/context 就像一块“体脂秤”,把上下文里都塞了什么、哪里超标、为什么触发压缩,统统摊开给你看。它还会标出 MCP 工具的使用和 CLAUDE.md 记忆文件的来源,方便你做针对性优化。


  • 一眼看穿上下文:会话里到底装了哪些片段、各占多少 Token,接近阈值没有?(社区总结:常见 200k 窗口、约 80% 附近会触发自动压缩)
  • 定位“胖源”:标出 MCP 工具用过哪些资源、读了哪些大文件,便于减重。
  • 核查记忆:展示被加载的 CLAUDE.md / CLAUDE.local.md,确认有没有“记忆塞太多”。
  • 成本意识:结合 /context 与状态栏/第三方工具(如 ccusage)做交叉对比,减少“暗耗”。(官方文档给过一个量级:人均日均成本约 $6,90% 用户低于 $12)

注:目前 /context 的统计和其它渠道(自动压缩提示、ccusage、定制状态栏)可能略有出入,社区也在反馈修正。把它当“诊断视图”更稳。


在一次大需求推进的中后期,敲 /context 看看哪些段落最占 Token。 配合 /compact focus: {本周目标与差异清单}定向瘦身,避免把历史枝叶继续带进来。(Slash 命令与 /compact 属于官方支持的工作流)

/context → 出现了家目录或项目里过大的 CLAUDE.md? 把规范、惯例留在项目层 CLAUDE.md,把临时心得放 CLAUDE.local.md,并拆分引用,避免一锅端进上下文。

/context 里看到 MCP 调了哪些搜索/数据库/外部 API,倒推出最费 Token 的调用链,然后做白名单限流。MCP 是 Claude 官方的一等集成,适合规模化连接外部工具。

合并分支、发版前跑一次 /context,确认没有无关对话历史多余记忆干扰,降低自动压缩触发几率,提升回复稳定性。关于“接近 80% 会自动压缩”的经验可做参考。

ccusage 挂到状态栏,实时看“当前会话/今日/5 小时块”的消耗;遇到飙升,立刻 /context 对表定位。


能力/工具/context自动压缩提示ccusage(状态栏)自定义状态栏脚本
展示粒度细,含片段/MCP/记忆粗,接近阈值才提示细,侧重费用/Token实时数取决于脚本
记忆可见性✔ 显示 CLAUDE.md 来源需自做
MCP 可见性可做
准确性早期版本略有偏差准确准确(基于日志/计费)依实现
适合人群诊断/优化普通使用成本敏感高阶定制

说明:准确性条目参考了官方/社区资料与问题跟踪帖,/context 仍在迭代。


  • 查看上下文输入:/context → 标记大块内容与来源(MCP/记忆/历史)。

  • 定向瘦身输入:/compact focus: 「本迭代目标与阻碍」(先聚焦再压缩)。

  • 记忆治理: 把规约写进项目根的 CLAUDE.md;临时偏好放 CLAUDE.local.md;大文档用引用拆分。

  • MCP 白名单: 限定可自动放行的工具,避免无谓调用;必要时再交互授权。

  • 成本联动: 安装 ccusage 并挂到状态栏,随时对比 /context


  • 数字不完全对齐很正常:/context 处于新版本早期,和状态栏或自动压缩提示可能存在偏差;以计费/日志为最终依据。
  • 别把记忆当垃圾桶:记忆文件会被自动读取,体量大就会占窗——控制粒度才是王道。
  • MCP 不是免费午餐:每一次外部检索/读取都可能带来额外 Token;用白名单与限流。

/context = 开发者的“上下文体检表”。 想把 Claude Code 用得稳、快、省,先把“看得见”这件事做好。 从今天起,养成三个习惯:常看 /context、按需 /compact、记忆瘦身。你会发现,回复更稳、成本更可控、协作更顺。

你觉得 /context 还缺什么视图?有没有你做的“状态栏 + /context”联动方案?欢迎留言聊聊。

Claude Code 无缝切换 DeepSeek v3.1

DeepSeek v3.1 新增 Anthropic API 格式兼容。把 Claude Code 的 BASE_URL 和鉴权变量指到 DeepSeek,就能继续用 Claude Code 的工作流与工具,底层模型却换成 DeepSeek,体验类似、成本更友好。


很多同学问:能不能保留 Claude Code 的一整套体验,比如 REPL、/config、权限沙盒、hooks、状态栏……但把底层模型换成便宜高性价比的? 现在答案是:能。因为 DeepSeek v3.1 宣布支持 Anthropic API 兼容,对接路径官方给到位了。


  • 无缝衔接 Claude Code:继续用熟悉的 CLI、项目权限、MCP/工具链;只改环境变量与模型名。
  • 价格更友好:DeepSeek Chat(v3.1)官方价显示输入 $0.27/百万 token(cache miss)输出 $1.10/百万 token。对比 Claude Sonnet 3.7/4 的 $3 / $15,输入大约 1/11,输出约 1/13.6真金白银
  • 128K 上下文(v3.1),同时还支持**严格函数调用(Beta)**等特性。做代码代理、工具编排更稳。

小提醒:Anthropic 近期也在推 Sonnet 4 的 1M 上下文(长上下文按更高档计费),这点是 DeepSeek 目前不具备的上限优势,按业务取舍。


Terminal window
npm install -g @anthropic-ai/claude-code

(装完可 claude doctor 自检版本与依赖)

Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_API_KEY}
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat

说明:

  • ANTHROPIC_BASE_URL 指到 DeepSeek 的 Anthropic 兼容端点
  • ANTHROPIC_AUTH_TOKEN 会作为 Authorization: Bearer 使用;
  • ANTHROPIC_MODELANTHROPIC_SMALL_FAST_MODEL 让 Claude Code 选中 DeepSeek 的模型。
Terminal window
cd my-project
claude

(你看到的还是 Claude Code 的交互式工作流,但请求会发往 DeepSeek)

想持久化配置?把上述变量写进 ~/.claude/settings.jsonenv 字段即可:项目/全局都支持,团队可统一发放。


A. 用 settings.json 固化模型与限额

Section titled “A. 用 settings.json 固化模型与限额”
{
"model": "deepseek-chat",
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "sk-***",
"ANTHROPIC_MODEL": "deepseek-chat",
"ANTHROPIC_SMALL_FAST_MODEL": "deepseek-chat",
"CLAUDE_CODE_MAX_OUTPUT_TOKENS": "4096"
}
}

这样开新项目不用反复 export,团队一把梭

你也可以把 ANTHROPIC_BASE_URL 指向企业自建 LLM Gateway / LiteLLM,做流量路由、熔断、成本看板、配额管理。 官方文档明确支持 ANTHROPIC_BASE_URLapiKeyHelper 等方案。

  • 统一小任务模型:把 ANTHROPIC_SMALL_FAST_MODEL 也设成 DeepSeek(默认用于扫描/检索/轻推理)。
  • 控制输出上限CLAUDE_CODE_MAX_OUTPUT_TOKENS 合理收口,避免长文输出吃满。
  • 函数调用:v3.1 支持严格函数调用(Beta),让 agent 走结构化调用链,少走弯路省 token

DeepSeek 的 Anthropic 兼容层覆盖了消息、工具、流式、温度、top_p 等常用字段; 但也明确标注了不支持的内容类型(如 imagedocumentsearch_result、部分 MCP/容器类字段)。 需要这些能力的场景要么切回原 Claude,要么改造提示与流程。

另外:敏感文件隔离别忘了。用 Claude Code 的 permissions.deny.envsecrets/** 等隐藏,避免模型读取。


项目DeepSeek Chat(v3.1 定价)Claude Sonnet 3.7/4(API 定价)
输入(每百万 token)$0.27(cache miss)$3
输出(每百万 token)$1.10$15

结论:输入约 1/11,输出约 1/13.6。如果你主要跑代码改写、检索、单测生成,这个差距会立竿见影


  • 个人/中小团队:预算敏感,但要求工程效率工具链稳定
  • Agent / 自动化项目:调用频繁、响应可控,优先省成本
  • 教育/实验环境:希望在同一套 Claude Code 体验下,快速验证不同模型策略。

Q:我在 REPL 里还会看到“Claude”的字样,这是 DeepSeek 在跑吗? A:是的。壳是 Claude Code引擎是 DeepSeek。请求会按你设置的 ANTHROPIC_BASE_URL 与鉴权走 DeepSeek。

Q:我需要换 SDK 吗? A:不用。如果你用的是 Claude Code 交互式工作流,只改环境变量即可。若在代码里直接调 SDK,可以用 Anthropic 官方 SDK,同时把 BASE_URL 指向 DeepSeek 的 Anthropic 端点即可。

Q:DeepSeek 兼容层有没有不一样的地方? A:有。DeepSeek 列出了忽略/不支持的一些头与消息类型,工具大多支持,但图像/文档类消息暂不支持,注意规避。


一句老话:“能省下来的钱,都是团队的护城河。” 把 Claude Code 的生产力留住,把大头模型成本换成更友好的 DeepSeek。 今天就切一把,明天财务报表会笑。

你觉得呢?要不要我顺手给你做一份 settings.json 模板 + 成本测算表


Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=sk-deepseek-***
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
claude

(来自 DeepSeek 官方指引与 Claude Code 环境变量文档)

Terminal window
pip install anthropic
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_API_KEY=sk-deepseek-***
import anthropic
client = anthropic.Anthropic()
msg = client.messages.create(
model="deepseek-chat",
max_tokens=800,
messages=[{"role":"user","content":"Hi, from DeepSeek via Anthropic SDK!"}]
)
print(msg.content)

ccstatusline 把 Claude Code 变成“生产力仪表盘”

ccstatusline 把 Claude Code 底部状态栏变成「可视化驾驶舱」——模型信息、Git 分支、Token、上下文占用、会话时长、5 小时 Block 进度条,都能一次看全,还能插入你自己的命令输出。


每天写代码,最怕两件事。 成本失控,以及上下文爆表。 Claude Code 现在支持自定义状态栏,我们有了一个天然的“仪表盘”位置。

ccstatusline 就是为这块“仪表盘”而生的。 开箱即用,能直接显示模型、Token、上下文百分比,还自带 Powerline 主题。最爽的是自带 Block 计时器,把 5 小时窗口的进度一眼看穿。


1) 一眼看穿 5 小时 Block(含进度条)

Section titled “1) 一眼看穿 5 小时 Block(含进度条)”
  • 自动识别对话块边界,显示已用时长。
  • 两种进度条样式(32/16 字符)。
  • 支持只显示“纯值”(raw)模式。

节奏感直接拉满,什么时候该休息、什么时候重置,心里有数。

  • 箭头分隔、可定制 Cap、内置多套主题。
  • 16/256/TrueColor 都能玩。

颜值在线,信息密度高,还能和你的终端主题完美融合

  • npx/bunx 一键启动配置界面。
  • 最多 3 行独立状态行,所见即所得。
  • 设置保存到 ~/.config/ccstatusline/settings.json
  • 你写什么,它就显示什么。
  • 可以把 ccusage 的实时成本/用量直接塞进来。

例如 npx -y ccusage@latest statusline,官方文档也给了最佳参数。

模型名、Git 分支与变更、输入/输出/缓存 Token、上下文长度与占比、会话时钟、版本号、输出样式、智能宽度截断…… 写代码时的“关键信息噪点”,全被收拾干净


Terminal window
# npm 启动配置 TUI
npx ccstatusline@latest
# 或者 bun(更快)
bunx ccstatusline@latest

进入 TUI 后,按提示添加/移动条目、调色、设置分隔符与填充,并 一键写入 Claude Code 设置

VSCode 终端如果颜色怪异,把 terminal.integrated.minimumContrastRatio 调成 1

  • Model / Tokens Total / Context %(可用)/ Session Clock / Block Timer(进度条)/ Git Branch + Changes
  • 宽度设置推荐 Full width minus 40,避免自动压缩信息把行挤爆。

进阶玩法:把“成本”和“节奏”可视化

Section titled “进阶玩法:把“成本”和“节奏”可视化”

A. 接入 ccusage:把钱花在哪,一清二楚

Section titled “A. 接入 ccusage:把钱花在哪,一清二楚”

1)在 ccstatusline 的 Custom Command 增加: npx -y ccusage@latest statusline 2)把 timeout 设为 5000(首次下载需要)。 3)勾选 preserve colors

完成后,状态栏可显示本会话成本、当天累计、当前 Block 成本与剩余时间、实时烧钱速率等。

小贴士:若你用旧版 ccusage 或网络慢,可能有 OOM/反复调用风险,务必设置超时并更新到新版。

B. 自定义命令:把“上下文外的信息”塞进来

Section titled “B. 自定义命令:把“上下文外的信息”塞进来”
  • 当前目录名:pwd | xargs basename
  • Node 版本:node -v
  • 当前 Commit:git rev-parse --short HEAD
  • 当前时间:date +%H:%M
  • 天气:curl -s wttr.in?format="%t" 注意命令要快,超时会被杀掉。
  • 第 1 行:模型、Token、上下文。
  • 第 2 行:Git、目录、时间。
  • 第 3 行:Block 进度、成本(ccusage)。

信息分层+智能截断,再也不打架。


  • 成本风控:接通 ccusage,盯住实时烧钱Block 成本。适合个人和团队账单复盘。
  • 长跑任务:有了 Block Timer,你能自然安排专注/休息节律,不再“超时猝不及防”。
  • 团队风格统一:内置主题 + Powerline,统一观感与指标,利于 Pair/Review。
  • 演示/直播:状态栏就是“旁白”,观众能跟上你的上下文与成本节奏。
  • 跨平台写作:Bun/Node 都能跑,Windows 也在补充文档与适配反馈中关注。

  • 命令要快:Custom Command 超时会被干掉;慢命令会拖慢每秒刷新。
  • VSCode 颜色不准:把最小对比度关到 1,或用外置终端。
  • 宽度包行:用 “Full width minus 40” 或按上下文阈值动态切换。
  • ccusage 偶发性能问题:设 timeout、升级版本,必要时独立运行做健康检查。

写代码该看的信息,别再藏在命令里、文件里、记忆里。 把它们到状态栏。 看得清,花得省,写得稳。

去开一趟“可视化驾驶”,把 Claude Code 用出“数字感”。 npx ccstatusline@latest,今天就上。

日常 AI 工具最强“省时省钱”组合拳(2025 年 8 月实战版)

本月我换过一轮又一轮模型,最后沉淀出一套“性能×价格×速度”的日常配置。 目标很简单:能落地、可复用、总成本可控。下面是我每天真正在用、并愿意推荐给团队和家人的清单与玩法。


🚀 1)工作代码:Claude Code 200u(重度开发主力)

Section titled “🚀 1)工作代码:Claude Code 200u(重度开发主力)”

亮点

  • 终端里直接用 Claude,开发透明可控;Pro/Max 订阅打通 Web/桌面/移动与命令行。
  • 搭配 Opus 4 / Sonnet 4,长链路任务、复杂工程的持续编码能力强。
  • Anthropic 的订阅页里写明了 “更多用量、连接日常工具、扩展思考” 等权益,适合工程向工作流。

实用提醒

  • 市场上已出现周限流/反滥用的调整,重度用户要规划好长跑任务(分阶段、存档快照)。

推荐场景

  • 单仓多任务、跨服务重构、生成—调试—回归的闭环开发。
  • 习惯“在终端指挥 AI”的工程师。

上手小招

  • 规划用 Sonnet 4,执行多用 Sonnet 4/Opus 4 兜底”;任务拆分为 30–60 分钟冲刺,阶段产物入库。

🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)

Section titled “🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)”

为什么是这个精确版本号? Anthropic 官方建议生产环境固定到具体 Snapshot,例如 claude-sonnet-4-20250514,避免别名迁移带来的行为漂移。

推荐场景

  • 中英双语邮件、公关口径、本地化产品文案。
  • 技术会议纪要的语气与逻辑统一

上手小招

  • 先给受众画像+沟通目标,再让模型“改写三版:正式/亲和/极简”,最后抽取词汇表统一术语。

📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)

Section titled “📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)”

亮点

  • 极低延迟&低成本,适合大量短文本与轻加工任务。
  • 100 万上下文(官方表述为 1M context),批量整理/对照翻译时很香。

推荐场景

  • PDF 摘要、段落级对照、批注式翻译。
  • 规则类重写:标题、摘要、要点卡片。

上手小招

  • 让 nano 只做“结构化抽取+轻润色”,重写与风格化交给上层模型,省钱还稳定

🎙️ 4)语音转文字:ElevenLabs Scribe v1

Section titled “🎙️ 4)语音转文字:ElevenLabs Scribe v1”

亮点

  • 99 种语言逐词时间戳说话人分离、还能标记笑声/掌声等音频事件。
  • 官方将其定位为高准确率 ASR,适配嘈杂环境与多人会议。

推荐场景

  • 远程会议、访谈、播客、电话录音。
  • 需要法务留痕培训资料的场景。

上手小招

  • 直接用 model_id=scribe_v1 的 API;超长音频可分段并保留时间戳,后续好对齐回放。

🧽 5)语音稿后修正:OpenAI GPT-4.1 mini

Section titled “🧽 5)语音稿后修正:OpenAI GPT-4.1 mini”

为什么搭配 mini?

  • 相比 nano,mini 更擅长指令遵循与文本重组,格式化要点、总结与行动清单更稳;官方文档&定价对轻量推理很友好。

推荐场景

  • “会议转写 → 结构化纪要 → 待办清单/邮件草稿”。
  • 从 Scribe 输出里抽取决策/风险/负责人

🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开

Section titled “🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开”

各有绝活

  • Gemini:支持Google Search GroundingDeep Research,能连网检索并给可验证来源,做系统性调研。
  • Claude:订阅权益含“Research”,结合项目/文档,适合研读—提问—写作一体化。
  • Grok 4:内建实时搜索集成与原生工具调用,对时效性话题和 X 平台生态的内容追踪很强。

我的流程

  • Gemini 把范围扒全、列关键来源;
  • Claude 读长文&出结构化初稿;
  • Grok 盯热更新/事件演进,补“最后 24 小时”的变化。

👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)

Section titled “👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)”

为什么给家人用 Plus

  • 价格亲民可用模型够用,官方介绍清晰。
  • **记忆(Memory)**可按需开关、清除与管理,长期越用越懂你。
  • 最近版本对跨会话记忆与个性化增强,适合家庭行程、作业辅导、生活提醒。

推荐场景

  • 家庭清单、学校通知、旅行计划模板。
  • “孩子口吻改写”“老人友好说明书”。

「会前—会中—会后」 1)会前:用 Gemini Deep Research 做 30 分钟预研,拉关键来源。 2)会中:录音交给 Scribe v1 实时转写。 3)会后:GPT-4.1 mini 整理纪要、行动项;**Claude Sonnet 4(20250514)**润色对外邮件。

「开发—测试—发布」 1)Claude Code 200u 驱动重构与长链路任务; 2)阶段产物用 nano 做批量格式化与标签抽取; 3)上线说明与变更日志交给 Sonnet 4 定稿。


  • 用量与限流:重度开发要留意订阅侧的节流策略,分阶段跑、勤存档,避免被动中断。
  • 版本固定:API 侧固定模型快照,避免别名漂移导致结果抖动。
  • 隐私与记忆:家人使用 ChatGPT Memory 时,学会在设置里随时关闭/清除

  • 代码长跑:Claude Code(Opus/Sonnet 4 组合)。
  • 精准外宣:Sonnet-4-20250514 固定版本。
  • 轻量阅读/批处理:GPT-4.1 nano。
  • 会议转写:Scribe v1。
  • 纪要与邮件:GPT-4.1 mini + Sonnet 4。
  • 三向联网:Gemini Grounding / Claude Research / Grok 4。
  • 家人助理:ChatGPT Plus(开启记忆)。

好的 AI 组合,应该帮你把“时间焦虑”换成“稳定交付”。 这一套我和团队每天在用,你也可以按需裁剪,先从一条工作流跑通,再去扩展。

你觉得呢?哪一个是你的最强单品?要不要我出一篇“省钱进阶攻略+实操配置文件”合集?

Claude Code、Cursor、GitHub Copilot 会员费太贵?或许要学抖音了

当前市面上几款炙手可热的 AI 编程辅助工具,如 GitHub CopilotCursorClaude Code,其商业模式主要都走会员订阅路线,每月收费为主。而且这些工具的用户群也在快速增长:

  • GitHub Copilot(微软 GitHub 出品):个人版订阅费约 10 美元/月,提供代码自动完成和聊天解答等功能。自 2021 年推出以来人气飙升,到 2025 年已累计超过 2000 万 用户试用过 Copilot(all-time users)。其中付费用户超过 180 万(截至 2024 年初)。Copilot 在企业界也颇受欢迎——微软 CEO 纳德拉曾透露 90% 的财富100强企业都在使用 Copilot。Copilot 实行订阅收费,微软还将其捆绑进更昂贵的企业套餐。凭借庞大开发者生态,Copilot 的营收增长迅猛,2024 年时纳德拉称其“业务规模已超过微软2018年收购 GitHub 时整个 GitHub 的规模”。

  • Cursor(Anysphere 公司开发):一款基于 VS Code 打造的 AI 代码编辑器,采用基础免费+高级订阅的模式。个人有免费 Hobby 版(带两周Pro试用)和付费 Pro 版($20/月);深度用户还有 $200/月的 Ultra 档,包含更高调用上限和优先新功能。这种定价相当亲民,因此 Cursor 用户量激增。2025 年初曾传出 Cursor 日活跃用户已超 百万,当时年化经常性收入约 $2 亿;短短数月后其 ARR(年度经常性收入)攀升至 5 亿美元——增长速度惊人,可见有大量用户愿意为之付费。不过 Cursor 团队也面临使用成本随用户增长而剧增的问题。据报道,许多 AI 编程公司的毛利率几乎为零甚至为负,因为模型调用成本太高,“所有代码生成产品利润率要么是0,要么为负”。尽管 Cursor 母公司 Anysphere 在 2024 年 6 月已达到 $5 亿 ARR,成为 SaaS 史上最快破亿 ARR 的公司之一,但高昂的算力支出让利润承压,不得不调整定价策略,把超额使用的费用转嫁部分给重度用户。

  • Claude Code(Anthropic 公司推出):Anthropic 将自家高级大模型 Claude 集成进终端和 IDE 中,形成的 AI 编程助手。Claude Code 并未单独收费,而是包含在 Claude.ai 的订阅套餐里:个人 Pro 计划每月 $20(年付折合约 $17/月),订阅即可使用 Claude Code。更高阶还有 Max 计划 $100/月(5倍用量)或 $200/月(20倍用量),提供更大的上下文窗口和更强模型(Claude Opus 4.1)。换言之,Claude Code 走的是“订阅会员送工具”思路,用高价值的编码助手来吸引开发者订阅其 AI 服务。Anthropic 也提供按 API 用量计费的企业方案。Claude Code 主打深度代码理解和跨文件编辑,在专业开发团队中反响不错。不过相较 Copilot 和 Cursor,Claude Code 用户规模数据公开较少,可能因为其主要面向付费用户群体,采用精细化运营而非广撒网策略。

总的来看,这几款AI 编程助手基本都采用订阅盈利,少则每月十几刀,多则上百刀,瞄准的是程序员愿意为效率买单的市场。而免费用户要么无法使用(Copilot 已取消免费试用),要么受限较多(Cursor 免费版有调用次数限制)。这样的商业模式虽然直接,但也意味着不付费就无缘完整功能。有没有可能换个思路,用互联网常见的广告/娱乐变现手段,来为这些 AI 工具开拓新的收益来源呢?在讨论这个创意前,我们先看看短视频、直播、游戏等领域是如何“吸金”的。

短视频、直播、广告:互联网吸金的黄金套路

Section titled “短视频、直播、广告:互联网吸金的黄金套路”

在互联网行业,用户注意力就是硬通货。短视频平台、在线直播、广告分发和手游等,都是通过长时间牢牢抓住用户视线来实现商业价值的典型代表:

  • 短视频(抖音/Douyin、TikTok):通过精准算法推荐,让用户刷视频刷到停不下来,从而穿插信息流广告、高效变现。以抖音为例,截止 2024 年其月活用户已达 10 亿(仅中国区)。用户平均每天花 110 分钟 在抖音上,几乎相当于刷完一部电影!用户停留时间长,广告就有充足展示机会。抖音的广告收入水涨船高,2024 年预计将达到 300 亿美元(含开屏、信息流、贴纸等各种形式)。此外,抖音融合了直播带货、电商导流等模式,拓宽了变现场景——据统计,有超过 40% 的日活用户会观看或参与抖音上的直播带货。可以说短视频平台通过算法+内容极大提升了用户黏性,用海量用户时长去换取高额广告营收。

  • 视频网站(YouTube):作为传统长视频平台,YouTube 的主要收入也来自广告插播和创作者分成。YouTube 拥有全球 24.9 亿月活跃用户,2023 年其广告收入高达 310 亿美元。平均每位用户每天花将近 49 分钟 看 YouTube。平台通过前贴片、中插广告和推荐页广告等形式获利,再与内容创作者分成。这种模式验证了“只要用户看得久,就不怕广告卖不出”的逻辑。近年来 YouTube 也引入 Shorts 短视频和直播功能,进一步增加用户停留时间,并丰富广告库存。可以说,视频平台用海量内容留住用户,再通过广告变现,是成熟且高效的商业逻辑

  • 直播平台(Twitch 等):直播通过实时互动激发用户热情,除了广告外,还促成用户打赏和订阅。Amazon 旗下游戏直播平台 Twitch 2024 年用户总观看时长达 208 亿小时之巨,全球月活用户约 2.4 亿,日活约 3500 万。Twitch 的收入一半来自广告(主播直播间插播广告,平台与主播分成),一半来自用户订阅和礼物打赏。2024 年 Twitch 带来约 18 亿美元营收。虽然相较短视频用户基数小,但铁杆观众愿意花钱支持喜欢的主播,ARPU(每用户收入)更高。直播变现的核心在于强社群氛围:实时弹幕、粉丝与主播的情感连接,都提高了用户付费意愿。这种模式证明,即使用户规模不像短视频那么大众化,但只要粘性强、互动深,也能产生可观收入。

  • 手游与互动游戏:很多游戏尤其是免费手游,通过内购和广告双管齐下变现。一方面,少数付费玩家(“氪金大佬”)贡献内购流水,另一方面,大量非付费玩家通过观看广告来换取游戏内奖励,成为广告变现对象。比如一些休闲手游会设计“看30秒广告领取金币”的机制,或是在关卡加载时插入广告。这种**“用等待时间换收益”的套路很常见。据统计,2024 年全球手游市场收入超过 1110 亿美元,其中广告收入占相当比例。谷歌甚至推出了App Open Ads** 专门用于在 App 加载画面展示广告,让开发者利用用户等待的几秒钟赚钱。游戏行业可谓深谙此道:把碎片时间变现,不浪费任何一次用户停留在屏幕前的机会。

总结来看,无论短视频也好、直播也好,背后商业逻辑都是利用优秀的内容或互动体验,把用户尽可能长地留在平台上,然后通过广告或增值服务把用户注意力变现。这种逻辑能否移植到 AI 编程助手上呢?也就是说,我们能否设想这样一种模式:程序员在使用 AI 写代码的空档,也能刷到定制的短视频或互动内容,从而用娱乐广告收入替代部分会员费?听上去有点天马行空,但不妨大胆脑洞一下。

AI 写代码时也能刷视频?可行性分析

Section titled “AI 写代码时也能刷视频?可行性分析”

试想一个典型场景:程序员小张在 VS Code 里使用 AI 助手生成代码,有时需要等待几秒钟模型出结果。这些几秒钟的空档,现在往往就是盯着屏幕上“Thinking…”的光标发呆。如果能在这空隙给小张一点有趣的内容看看,岂不是把碎片时间利用起来了?

从技术上讲,这并非不可行。AI 编程工具通常以插件或独立应用形式存在,例如 Copilot 是 IDE 插件,Cursor 是基于 VS Code 的独立编辑器,Claude Code 可以在终端/IDE里运行。这些工具界面完全可以预留一个小窗,在 AI 处理请求时推送内容。类似网页加载时弹出的 tips,或者手游加载画面的插图,只不过这里可以换成个性化推送的视频/信息

关键在于,推送什么内容才能既吸引人又不干扰工作?借鉴短视频和内容推荐的经验,理想的做法是精准匹配用户兴趣。AI 助手本身对用户代码和上下文有一定了解,如果经过用户授权,也许可以基于编码主题猜测用户可能感兴趣的信息流。例如:

  • 当用户在写 Python 代码跑单元测试时,小窗里推送一个 “3 个提高测试效率的小技巧” 的短视频,30 秒看完,刚好吻合用户当前任务。
  • 用户调试报错的空闲,推送一条 程序员趣味梗 短视频或搞笑 Meme 动图,让用户会心一笑缓解挫折感。
  • 或者根据用户平时的偏好(比如他经常看前端技术文章),推荐相关技术 UP 主的 直播切片 或新品发布会片段,让用户获取业界动态。

当然,实现这种智能推荐需要构建内容推荐算法。可以参考抖音那样的多层次机器学习模型,根据用户的行为快速迭代推荐。AI 编程助手本身就可以调用大模型来理解代码语境,也可以结合用户设定的兴趣标签来筛选内容。比如让用户在设置里勾选喜欢的内容类型:“技术干货 / 科技新闻 / 搞笑段子 / 游戏直播 / …”,然后助手就按这些喜好来选取推送。

更重要的是把控频率和形式。程序员毕竟需要专注编程,不能让弹出的内容喧宾夺主、喧嚣吵闹。理想的设计是 嵌入式 的:比如编辑器侧边栏出现一个静音播放的小视频窗口,或输出区显示一条资讯流卡片。在 AI 响应生成后,这内容可以自动收起,不打断用户思路。谷歌的 App Open Ads 强调要选择自然的时机(如加载画面)展示广告,避免干扰核心体验。类比过来,AI 助手推送内容也应仅限模型运算等待或代码编译运行等“自然暂停”时,并且允许用户一键关闭。

至于盈利模式,这些推送内容完全可以包含广告元素。例如推送的短视频里有厂商推广的新开发者工具(以内容营销的方式呈现),或者在直播嵌入商品链接(用户也许正巧需要买本技术书/报个课)。Bing Chat 已经开始尝试在聊天答案中嵌入广告链接,微软表示会将广告收入与内容提供方分成。这说明将广告融入 AI 回答/界面是可行的商业尝试。在编码助手场景中,广告可以更加隐性和契合:比如当用户用免费版 AI 助手写前端代码,小窗里推荐一个“更高效的前端调试工具”(实际上是广告合作的推广),用户感兴趣就点击了解,不感兴趣就略过,体验上和刷抖音看到广告差不多。

这样的“AI 编程 + 娱乐广告”模式目前来看还没有直接的成熟案例,但相关的探索倒是有迹可循:

  • 开发者社区的广告尝试:传统编程问答网站如 Stack Overflow 早年就靠页面广告和企业招聘广告盈利。尽管那不是 AI 工具,但说明开发者并非完全抗拒看到广告,前提是广告内容相关度高、不影响获取答案。同理,如果 AI 助手推送的是开发者相关的资讯或产品(比如云服务促销、技术大会直播预告),用户可能会乐于接受,甚至觉得顺带涨姿势。

  • AI 聊天与广告结合:微软新版必应(Bing Chat)已在 GPT-4 驱动的聊天答案里插入赞助链接,有时用户提出购物类询问,回答会附上商品广告卡片。这等于把搜索广告直接嵌入对话。虽然代码助手场景和搜索不同,但 Bing 的实践证明大模型回答和商业广告并行并非禁区。关键是透明标注和相关性,让用户清楚哪些是广告,并确保广告确实和他的需求契合。

  • AI 工具的扩展窗口:一些编程工具其实已经有资讯推送的苗头。例如 JetBrains IDE 每次启动时会弹出“Tip of the Day”(每日技巧),VS Code 欢迎页也常有推荐文章或更新公告。这些都是在工具界面内嵌信息内容的案例,只不过目前还没有商业化。如果把这些窗口利用起来做成可定制的内容流,从技术上是顺理成章的。

  • 免费模式与用户规模:目前市面上也有少数 AI 编程工具走免费路线吸引用户,再谋求别的变现。比如开源的 Codeium 对个人免费,用数据提升模型、后续针对企业收费。但还没有出现“免费+广告”的明确案例。一方面,开发者用户量相对大众应用小很多,靠广告变现能否覆盖高昂算力成本是疑问。另一方面,程序员用户对产品纯净度要求更高一些,贸然加广告可能引发反感。所以大部分创业公司还是选择直接收会员费或寻找企业买单,而没有优先考虑广告模式。

  • 国内动向:值得一提的是,国内科技巨头也在推进 AI 编码助手,如阿里的“通义灵码”等。据阿里2025年财报披露,通义灵码(代码助手)已经实现了强劲的收入增长。不过它主要面向企业客户,是 B 端付费模式的成功例子,和我们讨论的C端娱乐广告思路有所不同。腾讯则表示 AI 技术已为其效果广告和游戏业务带来贡献,间接证明 AI 和广告的结合潜力巨大。

总的来看,目前还没有直接把编程助手和娱乐内容融合变现的产品,但从搜索聊天到应用加载广告,再到各种免费增值模式的成功,可以找到许多可以借鉴的要素。如果哪天有团队敢于打破常规,推出这样一款“既能写代码又能刷视频”的跨界产品,倒真有可能开辟出一片新蓝海。

展望未来:AI 编程助手的娱乐化之路

Section titled “展望未来:AI 编程助手的娱乐化之路”

设想一下未来的开发场景:你坐在电脑前写代码,AI 小助手在一旁帮助调试。编译的空当,它贴心地推送一段 “今日编程笑话” 短视频给你解闷,或者弹出一个 AR 实景黑客小游戏 供你玩几秒钟放松大脑。这听起来也许有些离谱,但并非不可能实现。随着新一代开发者逐渐习惯多任务并行和碎片化信息流,这种工作与娱乐交织的模式可能比我们想象中更受欢迎。

从商业角度看,“AI 编程+娱乐广告”模式有望带来多赢

  • 对开发者个人而言,入门门槛降低——也许不再需要付昂贵订阅费,就能免费使用强大的代码 AI 工具,只需忍受一些恰到好处的内容推送作为交换。同样的逻辑已经在移动应用中被用户所接受(比如很多 App 提供“看广告解锁高级功能”选项)。

  • 对平台厂商而言,可以拓宽盈利来源,分摊算力成本。当下 AI 编程助手盈利难,很大程度在于每多服务一个用户就多一份算力支出,不像传统软件那样扩张不增加边际成本。引入广告变现后,哪怕免费用户本身不付费,也能通过其观看广告为平台带来收入,从而补贴模型调用成本,缓解“用户越多亏越多”的窘境。这有望使商业模式更加可持续。

  • 对广告主来说,则多了一个触达程序员群体的新渠道。程序员作为高消费力、高决策影响力的人群,一直是很多B2B和技术产品广告主想渗透但不易触达的圈层。如果有编程场景内的原生广告位,可以推广云服务、开发工具、IT图书课程等垂直产品,广告转化率可能比在抖音上乱投要高。尤其是结合AI对用户代码意图的理解,广告精准度会更上一层楼(当然前提是隐私许可和谨慎平衡,否则容易引发反感)。

当然,要走通这条路也面临不少挑战。首先,如何不影响用户体验是最大的考验。程序员需要长时间专注思考,频繁弹出娱乐内容会打断思路。如果内容质量不高或无关痛痒,用户宁可关掉助手也不愿被打扰。因此内容推荐必须足够个性化、有价值,最好还能起到提升工作灵感的作用(例如推荐相关技术解决方案的视频教程,比纯商业广告更容易被接受)。同时需要给用户完全的控制权,比如设置“专注模式”时不推送任何内容,或者允许付费关闭广告(类似很多应用的“移除广告专业版”)。

其次,规模效应也是问题。全球开发者数量虽多,但远不如娱乐应用用户基数广。要依靠广告盈利,每用户广告收入必须能覆盖模型推理成本,这要求在提升广告效果和降低算力开销上双管齐下。一种可能是引入游戏化元素刺激使用时长:例如做一些编码闯关小游戏,用户玩的过程中既训练模型又曝光更多广告,一举多得。但这些想法都有待实践验证其可行性。

最后,从趋势上看,AI 工具娱乐化、广告化确实是可以期待的方向之一。就像办公软件里加入游戏听上去匪夷所思,但 Microsoft Teams 里已经内置了休闲小游戏供同事会议间隙放松,证明传统生产力工具也在尝试引入娱乐元素。同理,未来的 AI 编程助手未必是冷冰冰的工具,也可能变得有趣、会卖萌,甚至自带“段子手”属性。当90后、00后成为开发主力,他们或许更乐见工作变得像刷微博一样“有梗”。一旦用户心态转变,商业模式的创新就有了土壤。

小结与脑洞:AI 编程助手从收费走向免费+广告,是一次有趣的跨界融合想象。它代表了一种未来可能性:工作和娱乐不再泾渭分明,而是通过AI的桥梁自然融合。也许再过几年,当你用 AI 写代码时,它会在你调试卡壳时给你放一段编程教学的直播回放,在你构建项目时让你玩个像素风的码农跳跃小游戏。那时的编程体验,既高效又不失乐趣, coding 不再枯燥,bug 也多了几分戏谑的调剂。

当然,这一切目前还只是大胆的畅想。但正是这些天马行空的创意,指引着可能的下一步方向。毕竟,在 AI 时代的世界里,想象力往往是最好的生产力。让我们拭目以待,也许下一个颠覆行业的商业模式,就将在这样的脑洞中诞生。

用塞尔达音效,让 Claude Code 叫你回来

Vibe Coding 最大痛点:等 AI 跑完。 开个长任务,去忙别的,一回头早过点儿了。声音提醒就成了刚需。

今天这款小玩具把效率+乐趣都拉满:zelda-claude-code。它把塞尔达的提示音塞进 Claude Code,任务完成、连胜、成就解锁,都有「叮」的一下,很带感。


zelda-claude-code 是一个给 Claude Code 加音效与成就系统的 npm 包:

  • 成功/失败、连击、成就、会话开始/结束……都有不同音效;
  • 内置 统计面板:成功率、连胜、最强连击、最常用工具;
  • 直接在 Claude Code 里用 @zelda 系列命令调音量、开关提示、看数据。

此外,Claude Code 本身支持 Hook/通知,可以在“回复结束/需要你操作/工具完成”等时机触发你自己的脚本,这也是这类音效插件能无缝工作的底层能力。


  • 开箱即响:一行安装,重启 Claude Code 即可生效。@zelda help 就能看到菜单。
  • 不打扰又不失陪:成功一声、出错一声,无需盯屏。忙别的也能被“叫回来”。(Claude Code 也支持终端响铃/通知通道,这是官方路径。)
  • 可玩性:连击(3/5/10/20/50…)、成就(完美零错等),把枯燥的等候变成“打怪”。
  • 跨平台:macOS / Linux / Windows / WSL 都支持,并给出各平台播放器检测/排错建议。
  • 隐私友好:数据本地存储(~/.zelda/),不出网

先确保已安装 Claude Code(Node.js 18+)→ 再装 Zelda 插件。

Terminal window
# 1) 安装 Claude Code(官方)
npm install -g @anthropic-ai/claude-code
# 2) 安装 Zelda 音效(社区)
npm install -g zelda-claude-code@latest
# 3) 重启 Claude Code(很重要)
exit
# 重新进入项目目录再运行
claude
# 4) 查看帮助
@zelda help

上述 Zelda 包来自 npm,文档/源码在 GitHub。

若你更喜欢“纯官方”做法,也可直接把通知通道切到终端响铃claude config set --global preferredNotifChannel terminal_bell(简单一声“叮”)。


  • 长回合/深度规划:比如大仓库重构、全链路 CI 调试,AI 一停就响,不再“守株待屏”。
  • 多任务并行:一边写评审,一边让 Claude Code 改代码;声音到→切回确认。
  • 团队直播/结对:连击与成就让协作更有气氛;失败音效能提醒“哪里刚炸过”。
  • 跨设备提醒:想把通知推到手机/手表?可以用社区脚本/自动化把 Claude 的提醒转发到 iPhone/Watch。

@zelda stats # 查看本次会话+历史数据
@zelda achievements # 查看成就进度
@zelda combo # 看当前连击
@zelda config volume 60 # 调整音量(0~100)
@zelda config sounds.combo false # 关连击音
@zelda config notifications.achievements true # 开成就弹窗

所有命令均在 Claude Code 里直接使用。


对比:三种“有声提醒”的打开方式

Section titled “对比:三种“有声提醒”的打开方式”
方式安装成本能力适合谁备注
终端响铃(官方通道)极低任务完成“叮”一下只要最简提醒preferredNotifChannel terminal_bell
claude-sounds 脚本通过 Hook 播放多种音效喜欢自己折腾Shell 脚本+Hook,简单好改。
zelda-claude-code音效+连击+成就+统计想兼顾效率与乐趣npm 一键装,命令化配置。

  • 自定义音色:放入 sounds/ 目录,命名 success.wav / error.wav / achievement.wav … 即可替换。

  • 声音放不出来?

    • @zelda config volume 100
    • macOS 检查 afplay,Linux 检查 aplay/paplay,Windows 用 PowerShell 播放器;
    • 重新运行 ./demo_sounds.sh 试音。
  • Hook/通知点更多玩法:Claude Code 官方支持 Notification/Stop/PostToolUse 等多种 Hook,能在“结束时”“工具完成后”“需要你确认时”触发逻辑(比如记录工时、发桌面通知、跑格式化)。


  • 这是 第三方社区包,注意版本与安全;遇到问题随时 exit 重启。
  • README 提醒:Zelda 为任天堂商标,请合法获取素材。
  • 不想高频打扰?把音量降到 30~50,只保留关键事件;或用官方响铃通道,最简不打扰。

有声提醒,省回头工;有趣反馈,稳心理流。 让 Claude Code 不只是更快,而是更「有感觉」。今天就装上试试,下一次它响的时候,你可能正好写完一段好代码。

你觉得这类“音效+成就”的工作化游戏化能不能提升专注?你会用吗?

Claude Code 里养电子宠物 Tamagotchi,它居然会劝我别熬夜…

一个有点离谱、却很上头的小玩具。 它住在 Claude Code 的状态栏里,会呼吸,会撒娇,会吐槽你的 TODO。你写久了它会饿,你调试崩了它会安慰你,还会提醒你去喝水吃饭。


  • 真的住在状态栏:跟着你的会话节奏呼吸、换表情、发心情泡泡,不是截图小摆件,是活的。

  • 看得懂你的“节奏”基于活动而不是墙钟更新;能识别你是否休息过(5 分钟以上的间隔);状态保存在 ~/.claude/pets/,关了再开,记忆还在。

  • 四维属性:饥饿、能量、清洁、快乐;低于阈值会给⚠️提醒。它会真情实感“求你投喂”。

  • 会说话:内置 200+ 条上下文想法,会评价你的代码风格、工作习惯,也会来点“人生哲学”。

  • 双通道交互

    • Slash 命令:/pet-feed pizza/pet-play ball/pet-sleep/pet-stats
    • 终端 CLI:claude-code-tamagotchi feed pizza... play ball... stats 等。
  • 随心改性格:一堆环境变量 + 现成“人格预设”(禅宗大师、戏精、调试狂魔、沉默陪伴等),想话痨就话痨,想“净空”就净空。

  • MIT 开源刚发不久就上 npm,连着修了兼容性与体验(Node.js 直接可用、默认显示模型名、状态持久化修复等)。

背景补充:Claude Code 本体是什么?它是 Anthropic 的“代理式”命令行编程助手,能读项目结构、跑工具链、处理 Git 流程。Tamagotchi 就是给它加了一个“有情绪的状态栏搭子”。


方案 A|全局安装(最省事)

Terminal window
# 1) 安装
npm install -g claude-code-tamagotchi
# 或
bun add -g claude-code-tamagotchi
# 2) 开启状态栏宠物:编辑 ~/.claude/settings.json
{
"statusLine": {
"type": "command",
"command": "bunx claude-code-tamagotchi statusline",
"padding": 0
}
}
  • 优点:立刻在状态栏看到萌宠;自带 CLI 命令
  • 注意:不包含 Slash 命令;想要 /pet-*,看下一步。

加上 Slash 命令(可选)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git /tmp/claude-pet && \
cp -r /tmp/claude-pet/claude-commands/* ~/.claude/commands/ && \
rm -rf /tmp/claude-pet
  • 现在可以在 Claude Code 里直接用 /pet-feed/pet-play 等。

方案 B|克隆 + 自动配置(全功能)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git
cd claude-code-tamagotchi
./setup.sh
  • 脚本会安装依赖、配置状态栏、一次性放好全部 /pet-* 命令

小贴士:作者已把包发布到 npm,并修了 “无需 Bun、Node.js 直接可用” 的兼容;默认还能显示当前 Claude 模型名。想“极简接入”的同学可以直接走 A 方案。


2)好玩在哪:真实的“陪伴感”

Section titled “2)好玩在哪:真实的“陪伴感””
  • 会在 2 点提醒你别硬刚:“我们已经四小时了…先吃点再战?”——有点好笑,但真的能打断糟糕的熬夜循环。
  • 看心情变脸(◕ᴥ◕)(◕ᴗ◕) 开心呼吸,(-ᴥ-) 睡觉,(◕︵◕) 需要关注。情绪就是状态栏 UI。
  • “人格开关”:想要佛系就把衰减调慢;要鸡血就加快能量恢复;要“代码挑刺王”,就把“coding 想法权重”拉满。

  1. 长时间 Debug/排错:当你沉迷堆日志,它会提示你起来动一动。减少“越修越乱”。
  2. 直播、录课、内训 Demo:屏幕上有个会“呼吸”的宠物,气氛一下就活了,互动感爆棚
  3. 团队远程氛围:把人格预设“统一下发”,大家的宠物一起“打卡吐槽”,当个轻社交。
  4. 自我约束:配合 /pet-stats 看四维指标,给自己设“休息即投喂”的小奖励机制。
  5. 状态栏信息中心:显示当前目录、会话计数、模型名;切模型/切目录时心里更有数。

4)一键换性格:几套好用的“人格预设”

Section titled “4)一键换性格:几套好用的“人格预设””
  • 禅宗大师(几乎不打扰)

    Terminal window
    export PET_DECAY_INTERVAL=100
    export PET_HUNGER_DECAY=0.1
    export PET_ENERGY_DECAY=0.1
    export PET_CLEAN_DECAY=0.1
    export PET_CHATTINESS=quiet
  • 调试狂魔(专盯代码)

    Terminal window
    export PET_THOUGHT_WEIGHT_CODING=70
    export PET_THOUGHT_WEIGHT_RANDOM=5
    export PET_THOUGHT_FREQUENCY=10
  • 戏精(很会表达需求)

    Terminal window
    export PET_NEED_THRESHOLD=70
    export PET_CRITICAL_THRESHOLD=50
    export PET_CHATTINESS=chatty

以上预设都来自 README,复制进 ~/.zshrc / ~/.bashrc 即可生效。


  • 看不到宠物?重启 Claude Code,检查 ~/.claude/settings.jsonstatusLine
  • 命令无效?确认 ~/.claude/commands/ 是否有 /pet-* 文件;检查 bun --version(走 Bun 路线时)。
  • 想卸载?删 ~/.claude/commands/pet-*.md、清理 ~/.claude/pets/*.json、移除 statusLine 配置。

工作需要效率,脑袋也需要治愈。 这只小宠物,不会替你写代码,但能把“和 AI 协作的那点人味儿”带回来。装上,试两天。也许你会更喜欢“被看见的编程”。 (截至 2025-08-15,项目约 36⭐,仍在快节奏更新中。)

Station 统一管理 Claude / Cursor 的 Agent

想要一套自托管、可版本、可打包的 Agent 运行时,让 Claude Code / Cursor 里产出的“小 Agent”真正落地上线?Station 就是为这件事而生的。


最近这款 Station 在圈里挺火。它不是又一个“应用级”Agent 平台,而是专门给 可部署子代理(Sub-Agents) 准备的轻量运行时与打包分发体系。 一句话理解:把你在 Claude Code、Cursor 里做出来的“能干活的小 Agent”,打包、上生产、接权限、可审计,还能版本化管理。


亮点一览(为“内部场景”而生)

Section titled “亮点一览(为“内部场景”而生)”

**为什么用 Station?**因为内部自动化不同于普通 App:要拿密钥、要进数据库、要打 CI/CD、要过审计。

  • 面向内部任务:子代理可以连生产库、监控基础设施、走 CI/CD、做安全扫描与应急响应。
  • 安全内建:自托管、机密加密(AES)、多环境隔离(dev/staging/prod)、全量审计轨迹。
  • 轻量可融入单一约 45MB 二进制、本地 SQLite 即开箱,生产可切 PostgreSQL,天然 GitOps(配置可版本)。
  • MCP 原生:直接做 MCP 运行时,复用你团队已经批准的 MCP 工具(文件系统、Slack、AWS、K8s、DB…)。
  • 开发体验:提供 Genkit 驱动的浏览器 Playgroundstn develop,可视化调试工具调用与执行流。

MCP 是什么?简单说就是**让 LLM 用“受控工具”**的统一协议,Claude Desktop 官方教程里有快速上手与 Claude 配置示例。


核心结构很简单: 一个 .prompt 文件 + 一组 MCP 工具 = 一个可部署的子代理。 环境以 dev/staging/prod 组织,工具定义在 template.json,环境变量写 variables.yml,最终可打包 Bundle并分发安装。


  1. 安装 & 初始化
Terminal window
curl -fsSL https://raw.githubusercontent.com/cloudshipai/station/main/install.sh | bash
stn init # 初始化数据库与加密
  1. 接入 Claude Desktop / Claude Code(MCP) 在 Claude 配置里加入:
{
"mcpServers": {
"station": {
"command": "stn",
"args": ["stdio"]
}
}
}

现在,跟 Claude 说“创建一个安全审计代理”,它会自动给这个代理配好需要的工具(如文件扫描 + Slack)。

  1. 一键打包 & 安装 Bundle(把环境搬去生产)
Terminal window
stn template create prod-bundle --env default --name "Prod Bundle" --author "Team" --description "Prod env"
stn template bundle prod-bundle
stn template install prod-bundle.tar.gz production
stn sync production

完成后,一个包含 多子代理 + 多 MCP 服务器 的可部署包就到位了。

想要可视化调试?本地跑:

Terminal window
genkit start -- stn develop --env dev

浏览器里即可测试输入、看实时调用轨迹与日志。


推荐使用场景(配可复制示例)

Section titled “推荐使用场景(配可复制示例)”

1) 安全合规 / 基线扫描(+ Slack 告警)

Section titled “1) 安全合规 / 基线扫描(+ Slack 告警)”
  • 目标:定时扫描敏感目录,发现异常即时推 Slack。
  • 做法:创建 SecurityScanner.prompt,挂接 filesystem MCP + Slack MCP;在 Station 里设定执行元数据与步数上限。
  • 触发语句(Claude 内): “运行安全扫描,目录 /etc,把高危项发到 #sec-alerts。”
  • 价值:自动化+可追踪,方便审计与回溯。

2) 基础设施巡检 / 成本看板(AWS 成本)

Section titled “2) 基础设施巡检 / 成本看板(AWS 成本)”
  • 目标:拉取近 7 天成本,生成日报,发 Slack。
  • 做法:Agent 组合 AWS 成本工具 + Slack,输出 Markdown 周期推送。
  • 价值:把“AI+云成本”变成日常节拍,随手可得。
  • 目标:小版本上线,自动 docker exec + kubectl apply,回写变更单链接。
  • 做法:Agent 组合 Docker MCP + Kubernetes MCP;上线时只需一句话。
  • 价值:开发说人话,Agent 做苦活。
  • 目标:连接生产库(只读凭证),抽样检查慢查询与索引命中。
  • 做法:Agent 组合 DB MCP 与自定义分析脚本。
  • 价值:尽量靠近“问题源头”,减少排障往返。

5) 代码评审机器人(内部规则版)

Section titled “5) 代码评审机器人(内部规则版)”
  • 目标:按团队规范(安全/性能/风格)出评审建议。
  • 做法:在 .prompt 写清评分维度与建议格式,挂 filesystem MCP 读取代码,输出结构化建议。
  • 价值:把“规范”产品化,持续一致。

  • Station 默认面向 “能进你内网、需要权限与审计” 的任务;
  • 强调 自托管与数据主权
  • 单文件 + SQLite 的轻量形态,让它像一件运维工具,而不是一套平台。

你也可以把 Station 当作 MCP“中枢”:它既能消费别的 MCP 服务器,也能对外暴露“调 Agent、列 Agent、建 Agent”的 MCP 工具给其他客户端使用。


  • 凭证托管:密钥与连接串放入 Station 的加密存储,按环境隔离。
  • 最小权限:为每个子代理单独配置只需的 MCP 工具,少即是多。
  • GitOpstemplate.json.promptvariables.yml 全进仓库,走 MR 审核再发版。
  • 审计留痕:所有执行都有轨迹,出事可回溯。

Station 把“会干活的小 Agent”从桌面聊到的点子,落成可部署、可审计、可复制的内部自动化。你不用再为平台折腾,只需把 .prompt 写好,工具接上,一打包就能到生产。 这就是我最喜欢它的地方:简单、可控、能扩散

**你觉得最值得先做的一个子代理是什么?**欢迎在评论区聊聊,也可以把这篇转给团队同事,一起设计你们的“内部 Agent 工厂”。

Claude Code 真省钱用法

把对话瘦身、模型用对、权限管严,Claude Code 的账单能直接腰斩。


很多人用 Claude Code,账单月月“破防”。 不是你敲多了,而是隐形 Token 黑洞在吞钱。 好消息是:能控,而且立刻见效。

这篇把省钱术拆成三层:基础、进阶、高阶。 照做就能省下大头。


一、钱都花在哪?4 个“Token 黑洞”

Section titled “一、钱都花在哪?4 个“Token 黑洞””

1)系统与记忆的“隐形上下文” Claude Code 会自动加载系统提示与各级 CLAUDE.md 记忆(企业/项目/用户)。这些内容每次对话都会进上下文,自然吃 Token。**

2)模型价差太大 官方定价:Sonnet 4 ≈ $3/$15 每百万 输入/输出 Token;Opus 4/4.1 ≈ $15/$75。同一段对话,模型一换,单价就是 5 倍。**

3)上下文越聊越胖 Claude Code 支持超大上下文(Sonnet 4 最高到 1M Token 测试中)。对话越长,越容易触发自动压缩与重复“铺垫”,Token 跑得飞快。**

4)背景与噪音消耗 除了你看得见的回复,/cost 查询、自动摘要、Haiku 提示等后台动作也会花少量 Token。小数怕长计。**

小结:不是你多问了,而是“它每次都把家底搬上台”。


二、三层省钱心法(立刻能用)

Section titled “二、三层省钱心法(立刻能用)”

A. 基础篇:人人必会的 4 个动作

Section titled “A. 基础篇:人人必会的 4 个动作”
  • 手动瘦身而不是被动压缩/compact 主动压缩,并加一句聚焦指令:

    /compact Focus on code diffs and failing tests only

    自动压缩是在95% 容量时才触发,等它触发就晚了。**

  • 一事一议,做完就清 每个小任务开新会话,完结立刻 /clear,避免历史“滚雪球”。**

  • 选对默认模型 日常开发用 Sonnet 4。确有“难、长、推理深”的阶段,再 /modelOpus。现在还支持**“Opus 规划 + Sonnet 执行”的模式**,规划更强、执行更省。**

  • 随时查账 每个会话敲 /cost 看本次消耗;团队可在控制台看历史与设置工作区消费上限。**

配图建议(插画 2:1 | 英文文案) “A developer squeezing a giant chat bubble into a slim pill, while a tiny receipt shows shrinking token numbers.”


B. 进阶篇:流程一收,账单就瘦

Section titled “B. 进阶篇:流程一收,账单就瘦”
  • 文档驱动,防上下文爆炸 先让 Claude 产出「TODO 清单 / 方案简述」,确认后再执行。 反复迭代在**Plan Mode(规划模式)**里完成,确认再切回执行。**

  • 把“长期记忆”写进 CLAUDE.md 规范、常用命令、项目约定写入 CLAUDE.md,下次直接生效;必要时在会话里 /memory 快速编辑。记忆按层级自动加载,减少你每次“复述”的 Token。**

  • 小步提交,可随时回滚 让 Claude 每完成一个小块就写一次 commit message。出错回滚,少走弯路就少花 Token。(工程实践,无需额外引用)

  • 团队限流 & 飞行仪表 按组织规模设置合理的TPM(每分钟 Token),防并发“烧机”。**


C. 高阶篇:硬核降本(效果最猛)

Section titled “C. 高阶篇:硬核降本(效果最猛)”

1)权限白/黑名单,堵住“乱读文件”/permissions + .claude/settings.json禁止读取日志、二进制、大目录,只给必要路径。规则支持 gitignore 风格。**

{
"defaultMode": "plan",
"readRules": [
"src/**",
"docs/**",
"!**/*.log",
"!**/*.bin",
"!node_modules/**",
"!dist/**",
"!coverage/**"
],
"editRules": ["src/**", "docs/**"]
}

说明:plan 模式只分析不改动;读/写规则用来缩小文件面,少扫=少 Token。**

2)精确到“几行”而不是“整文件” 不要整段粘贴,把文件路径 + 需修改的行号 + 5 点摘要给 Claude,降低无关扫描。(工程实践)

3)模型分工:Opus 只做“贵的部分”/model 里把 Opus 用在方案/重构设计/跨模块依赖分析;真正代码生成与改错交给 Sonnet。官方也在推广这一路线。**

4)(团队/网关)用 Prompt Caching 做 API 或企业网关接入时,提示缓存对重复大段前缀能省到肉眼可见。官方给出缓存价差(写入/命中价更低)。**


  • 默认用 Sonnet,必要时临时切 Opus/model 一键切。**
  • 固定开启 Plan Mode:规划期不执行,确认再动手。**
  • 每次进入先瘦身/compact Focus on code diffs and test failures。**
  • 任务闭环就 /clear:防历史越滚越大。**
  • 权限严控:用 /permissionsreadRules/editRules 限目录与类型。**
  • 随时查账/cost + 控制台“工作区消费上限”。**
  • 记忆写入 CLAUDE.md:减少重复铺垫与上下文喂料。**

四、真金白银:为什么这些策略有效?

Section titled “四、真金白银:为什么这些策略有效?”
  • 单价差异:Opus 单价约为 Sonnet 5 倍,把“贵的工作”集中到规划期,执行期用 Sonnet,整体成本大幅走低。**
  • 体积成本:自动加载记忆 + 长对话让上下文变胖;主动 /compact/clear直接减少传输体积。**
  • 减少无关读写:权限与规则像“成本防火墙”,拦住大而无用的目录/文件。**
  • 后台开销可控:知道哪里在“悄悄花钱”,就能避免无意义的刷新与查询。**

Claude Code 的强大,来自“把一切都带上”。 省钱的关键,就是只带必要的那一部分

今天就把这套清单落到你的项目里: 从 /model/compact/clear 开始, 再把 CLAUDE.md 与权限规则补齐。 月底账单,会给你惊喜。

你怎么看?你还踩过哪些“吞钱坑”?评论区见。

调整 Claude Code 输出风格 @agent-output-style-setup

Claude Code 1.0.80 里,有个没写进文档的Agent @agent-output-style-setup,能一键创建和切换“输出风格”(比如超简洁、评审模式、教学模式),把废话变摘要,把长篇变 diff + 要点。这条Agent来自社区实测与公开贴文披露。


  • 官方的「Styles」能力允许你自定义语气、结构与细节层级;适配“写报告要正式、修 bug 要干脆”的真实场景。
  • Claude Code 本身支持配置项、slash Agent、项目级设置,适合把“风格”做成可重复、可版本化的工作流。

组合拳就是:用隐藏Agent生成风格 → 用 slash Agent一键切换 → 按场景自动控节奏。


社区贴文与 issue 显示,运行 @agent-output-style-setup 后,终端里的 Agent 会引导你回答偏好问题,并生成若干可切换的风格(如 Concise、Educational、Code Reviewer、Rapid Prototyping 等)。很多人用它做出“小写、像朋友聊天最小解释优先给 diff”的输出习惯;有的示例还能通过 @style concise 直接切换。

注意:这是“未记录/实验性”能力,可能随版本调整;稳定做法是把最终风格固化为 Styles自定义 slash Agent


Step 1:跑一次向导 在 Claude Code 交互 REPL 里执行:

@agent-output-style-setup

根据提示描述你的口味,比如:“简洁、只给必要解释、默认展示文件 diff、语气更随和”。完成后,Agent 会回显创建成功的信息与使用方式。

Step 2:把结果固化到项目里

  • Styles 作为全局/项目默认写作风格;适合“团队统一口径”。
  • 自定义 slash Agent(如 @style-concise@style-reviewer)做“随时切档位”的开关。Agent本质是 Markdown 文件,能进 Git 管理、团队共享。

Step 3:和其他设置配合

  • 需要时 /model 切模型、/status 看状态,走标准配置入口 /config

① 修小 bug:默认给 diff

  • 指令:@style concise → “只说做了啥 + 为啥 + diff”。
  • 价值:减少滚屏,让你直接确认改动是否可接受。
  • 背书:Styles 支持“更简洁、更到点”的输出;Claude Code 支持把工作流做成自定义Agent。

② 代码评审:结构化点评

  • 指令:@style reviewer
  • 输出:问题列表、风险点、建议、可复用片段。
  • 价值:把“感性吐槽”变“可执行清单”,更适合 PR 沟通。
  • 依据:Styles 可定义语气与结构;Claude Code 最佳实践鼓励可复用流程。

③ 新手带教:教学模式

  • 指令:@style educational
  • 输出:分步解释、概念脉络、对比与小练习。
  • 价值:会上手又不拖慢老手节奏。
  • 依据:官方 Styles 提供“详细/解释型”预设;媒体评测亦提到风格在学习场景的价值。

  • 把风格写进模板:项目根目录放一组 /.claude/agents/*.md,团队统一调用。
  • 按场景切档位:写文档用“Formal”,查错用“Concise”,重构用“Reviewer”。
  • 别忘了回退:遇到场景冲突,直接切回默认 Style;Claude 遵循“风格不影响正确性”的原则。

  • 未记录功能可能变动:版本升级可能改名或更换入口;建议把成品落到 Styles 与 slash Agent,避免被动。
  • 别过度压缩:再简洁也要保证“完整与正确”;这是 Claude 风格系统的底线。
  • 团队协作要可见:把风格文件进仓库,让 PR/评审看得见、调得动。

输出风格这件事,以前靠人肉约定;现在可以“一键成型 + 一键切换”。 把它接入你的日常工作流,你会发现:沟通更顺,节奏更稳,产出更像你

**你会把默认风格设成哪一种?为什么?**欢迎留言聊聊。

Conductor 把多个 Claude Code Agent 管理起来

Conductor:把多个 Claude Code Agent 一起指挥起来

Section titled “Conductor:把多个 Claude Code Agent 一起指挥起来”

一句话Conductor 让你一次性开多位“Claude 小伙伴”,每位各自一套隔离的 git worktree,同步推进不同任务;还能看谁在干活、谁卡住了,改了啥,一目了然。

做复杂项目,并行推进才是生产力密码。传统做法是开好多终端、手动切分分支、来回切目录,还容易串改。 Conductor 直接把这套流程做成了可视化工作台:点一点就能让多个 Claude Code各自隔离的工作区里同时开工。还支持本地/ GitHub / 任意 Git URL 仓库接入、多标签页终端Slash 命令消息队列、以及归档脚本等实用能力。

❗️提醒:本文的 Conductor 指的是 conductor.build 的 Mac 应用,不是 Netflix/Orkes 的微服务工作流引擎“Conductor OSS”。别混淆了。


1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看

Section titled “1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看”

每个 Claude Code 实例各自工作,界面能直接看到状态与变更,团队式协作体验拉满。

2) 真·隔离:每个工作区都是一个新的 git worktree

Section titled “2) 真·隔离:每个工作区都是一个新的 git worktree”

不是简单的临时目录,而是每个 Agent 一个 worktree+分支,避免互相覆盖与冲突。官方 FAQ 已写明:“Yes, each workspace is a new git worktree.”

3) 本地仓库、GitHub、任意 Git URL 都能接

Section titled “3) 本地仓库、GitHub、任意 Git URL 都能接”

最新变更里已加入本地仓库支持;也可一键克隆远程仓库,完全在你的 Mac 上工作。

Changelog 中多次出现与终端标签相关的修复/优化,证实已内置多标签页终端。

5) Slash 命令内建:把高频操作收进短命令

Section titled “5) Slash 命令内建:把高频操作收进短命令”

官方更新宣布 Slash commands 已上线,可在设置里管理;结合 Claude Code 的 Slash 机制更香。

Changelog 提到消息队列(按顺序处理多条消息)与可选归档脚本,方便把沟通与产出沉淀成可追溯资产。

Conductor 直接用你当前登录的 Claude Code(API Key、Pro 或 Max 计划),无需重复配置。


系统:目前为 macOS 应用;进入官网点击 Download Conductor

准备 Claude Code:建议先在本机安装并能正常使用 Claude Code CLI / 原生二进制(官方安装脚本见文档)。

首次启动

  1. 打开 Conductor,按提示添加仓库(本地路径 / GitHub / 任意 Git URL)。
  2. 选择要启动的 Claude Code Agent 数量与各自任务描述。
  3. 应用会为每个 Agent 建立独立 worktree + 分支并开始执行。

上手使用:3 个「日常软件开发」并行场景

Section titled “上手使用:3 个「日常软件开发」并行场景”

场景 A:一边修测试、一边做 Lint 和格式化

Section titled “场景 A:一边修测试、一边做 Lint 和格式化”
  • Agent A:修复失败的单测与断言
  • Agent B:跑 ruff/black/eslint/prettier
  • Agent C:同步更新 CI 配置 每位 Agent 在不同 worktree 分支上推进,互不干扰,最后你再逐个合并。

场景 B:安全上线+灰度回滚位移

Section titled “场景 B:安全上线+灰度回滚位移”
  • Agent A:改造鉴权逻辑
  • Agent B:写回滚脚本与开关
  • Agent C:补充 SLO 监控与报警 将Slash 命令固化成 /ship feature-x/prepare rollback,按一次就跑一套流程。
  • 消息队列让你“先丢任务,排队处理”,写完再集中 Review
  • 使用归档脚本把关键对话、变更记录、产出打包保存(如发布前档案) (以上两点源自官方 Changelog 能力项,可结合你团队规范落地自动化。)

工作流建议(结合 Claude Code 最佳实践)

Section titled “工作流建议(结合 Claude Code 最佳实践)”
  • 任务拆分清晰:每个 Agent 聚焦一个目标(如:Auth 重构 / 报表新页面 / DSL 解析器)
  • 保持隔离:不同任务用不同 worktree 分支,避免相互阻塞,提升合并质量与速度。
  • 命令模板化:把常用提示语收敛为 Slash 命令,把“废话”变成“一行指令”。

  1. 安装 Claude Code(若未装)。
  2. 下载并打开 Conductor
  3. 在 Conductor 里添加仓库(本地 / GitHub / Git URL)。
  4. 创建多个 Agent,写上各自任务。
  5. 终端多标签里观察日志 / 执行命令;必要时启用消息队列,顺序投递批量消息。
  6. Slash 命令复用你常用的工作流。
  7. 完成后归档脚本打包沉淀,或合并分支发版。

  • 不要和 Conductor OSS 混淆:后者是微服务编排平台(Netflix/Orkes 社区维护),不是这款 Claude Code GUI。
  • 只支持 Claude Code(目前):FAQ 明确写着“Right now, just Claude Code. Others coming soon.”,别指望立刻跑其它模型。
  • 性能:并行意味着本机资源消耗加大;建议合理控制 Agent 数量,配合消息队列节奏化推进。

Conductor = 多 Agent 并行 + worktree 隔离 + 可视化掌控。 如果你常在多个需求间来回切换、又怕互相覆盖,这款工具能立刻提升产能与心流。配合 Slash 命令归档脚本,还能把“人肉流程”收敛为标准化按键,把“对话产出”沉淀为可回溯知识库

你觉得这类“多 Agent 并行”的方式适合你的项目吗?**你会怎么拆分任务?**欢迎在评论区聊聊你的经验。

Claude Code 和 Cursor 通过 Browser Echo 阅读前端浏览器 console 日志

**把浏览器里的 console.* 日志与错误,实时**“回声”**到本地终端,0 配置可用,超适合 Cursor / Claude Code / Copilot CLI / Gemini CLI 这类读终端输出的 AI 编码助手。


线上没复现、线下没堆栈、AI 助手看不到前端日志? Browser Echo 直接把浏览器日志流式打到你的开发终端,无需侵入业务不影响生产包,还带文件行号与堆栈。AI 助手读到错误后,就能在 Cursor 或 Claude Code 里原地修。


  • 专为 AI 编码助手优化:终端可读格式,Cursor、Claude Code、Copilot CLI、Gemini CLI 直接吃。
  • 跨框架即插即用:React/Vue、Vite 家族、TanStack Start、Nuxt 3/4、Next.js 全覆盖;也支持自定义集成。
  • 开发态生效不注入生产包,默认仅 dev 模式启用。
  • 更像“后端日志”的前端日志:批量上报、sendBeacon文件:行:列 源信息、堆栈彩色终端输出
  • Vite 可选本地文件落盘(Next/Nuxt 默认 stdout)。
  • 开源 MIT,最近更新:当前最新 v0.0.6(2025-08-12)

  • 你在 Cursor / Claude Code 里修前端 bug,却看不到浏览器控制台
  • 需要把用户现场的前端异常,第一时间抛到终端(或文件),方便定位。
  • 本地复现困难,希望 AI 读日志→给 Fix PR 的闭环更顺滑。

Next.js(App Router)实战:安装与使用

Section titled “Next.js(App Router)实战:安装与使用”

下文以 Next 14/15 + App Router 为例。

Terminal window
# 任选包管理器
pnpm add -D @browser-echo/core @browser-echo/next
# 或 npm/yarn 等价命令

Browser Echo 的 Next provider@browser-echo/core 搭配使用。

默认 Next 的开发路由为:/api/client-logs。需要确保 导出 POST 处理器

推荐方式(使用官方处理器)

包内已提供处理器;根据版本可能导出路径略有不同,请以仓库 README 为准。

app/api/client-logs/route.ts
// 常见写法(示例);如果导出路径不同,请按 README 调整
export { POST } from '@browser-echo/next'

注意:一定要有这个路由,否则前端打点无处可投。

兜底方式(自定义极简处理器)

如果你想先跑通链路再替换为官方处理器,可先临时打印所有 payload:

app/api/client-logs/route.ts
export async function POST(req: Request) {
const body = await req.json()
console.log('[browser]', body) // 简单直打印;后续可替换为包内处理器
return Response.json({ ok: true })
}

关键:必须渲染 <BrowserEchoScript />

app/layout.tsx
import type { Metadata } from 'next'
import { BrowserEchoScript } from '@browser-echo/next'
export const metadata: Metadata = { title: 'My App' }
export default function RootLayout({ children }: { children: React.ReactNode }) {
return (
<html lang="en">
<head>
<BrowserEchoScript
options={{
// 路由默认为 /api/client-logs(Next)
// 也可自定义:route: '/api/client-logs'
include: ['warn', 'error'], // 降噪:只收警告与错误
stackMode: 'condensed', // 堆栈展示:none | condensed | full
showSource: true, // 打印 file:line:col
tag: '[browser]' // 终端前缀
}}
/>
</head>
<body>{children}</body>
</html>
)
}

这些 options 名称与默认值 来自官方文档的共享配置结构,Next/Nuxt/Vite 的 provider 会以插件参数或组件 props 的形式承载。

  • 启动本地 dev 服务器,终端会实时打印浏览器日志
  • Cursor / Claude Code 打开终端面板,让 AI 读取日志 → 生成修复
  • 没有任何日志:确认你已经导出 app/api/client-logs/route.tsPOST,以及 <BrowserEchoScript /> 已在 <head> 渲染。
  • 太吵:把 include 设为 ['warn','error']stackModecondensed
  • 生产可用性:provider 只在开发模式注入,不会污染生产包。如果你想在生产移除所有 console.*,使用构建工具的 strip 插件单独处理即可。

Datadog/Grafana 等 RUM/前端可观测提供线上环境的聚合指标与告警;Browser Echo 面向本地开发调试与 AI 协作,追求最快反馈终端可读性。两者并不冲突。


有了 Browser Echo,前端错误不再“卡在浏览器”。 终端一眼看穿问题,AI 一把就修。 装上它,你写前端的“闭环速度”,会明显更快。今天就把它加入你的 Next 项目里跑一圈吧。


Claude Code 的 Opus Plan Mode 更省钱更智能

Claude Code 的「Opus Plan Mode」规划用 Opus,执行用 Sonnet。把我们一直手动做的“Opus 想、Sonnet 干”做成了一键策略:复杂推理交给更强的 Opus,真正写改文件交给更省钱的 Sonnet

  • 在终端里输入 /model,菜单里能看到 Opus Plan Mode 选项;/status 可随时查看当前模型。
  • 进入/退出Plan ModeShift+Tab(多数终端是连按两次),在该模式下只做分析与计划,不会改文件或跑命令。
  • 需要真正落地实现,再退出 Plan Mode(快捷键或用 ExitPlanMode 工具)。
  • 官方定价:Opus 4.1 $15/$75(入/出百万 token),Sonnet 4 $3/$15Opus 约贵 5 倍。用它只做“思考/规划”,把代码生成交给 Sonnet,成本自然直降。
  • 另外,Claude Code 还有一个默认混合策略:先用 Opus 到一定配额,再自动切到 Sonnet(推荐默认)。这同样是“强度/成本”折中。
  • 陌生大仓分析 → 方案设计 → 分解任务:Plan Mode 里让 Opus 总结架构、列改造步骤与验收点,确认后再执行。Plan Mode 本身就支持“只分析不动手”。
  • 高风险改动(升级、重构、迁移):先让 Opus 写详细实施计划与回滚方案,再用 Sonnet 逐步实现。
  • 长流程 Agent:规划与执行解耦,成本更可控,也更接近“能长时间跑复杂任务”的代理形态。
  • 想让会话默认更安全:在设置里把 permissions.defaultMode 设为 plan,先计划、后执行。
  • /model 随时切换需要的组合(比如临时全程用 Opus 解决卡点)。
  • 重度使用者这阵子会遇到新的周度限额(主要针对 24/7 跑 Agent 的“鲸鱼”用法),规划阶段尽量把思路讲清、复用计划以减少无效推理。

一句话总结:Opus 负责“想清楚”,Sonnet 负责“干漂亮”。同等进度、更低花费,而且把“规划—执行”的节奏固化成了工作流。你这条感受很准,这确实把 Agent 又往“可长跑的复杂任务”推进了一步。

Claude Code 和 Cursor 写好用户画像需求文档

这篇是给会写代码、也会“写给 AI 看”的你。把需求说清楚,AI 才能少走弯路。一份好的“用户画像 + 需求故事”文档,就是 AI 的最佳提示词


你是不是也遇到过:跟 AI 说了半天,它还是“理解偏了”? 原因很简单——需求没被结构化

今天给你一份能直接塞进 Claude Code / Cursor 的用户画像需求文档。照着填,AI 基本不跑偏;加上 slash-command / .cursorrules,一键复用,全团队统一风格。 文末有多语标题封面与配图提示词朋友圈评论,直接拿去发。


一、为什么先写“用户画像 + 需求故事”?

Section titled “一、为什么先写“用户画像 + 需求故事”?”
  • 画像让人更“真实”:把用户的目标、痛点、动机写清,团队和 AI 都会少纠结。权威 UX 研究强调:画像要基于真实调研,不要拍脑袋
  • 故事让需求可落地:敏捷里常用“Persona + Need + Purpose”的用户故事写法,更容易驱动实现。
  • AI 需要明确指令:官方提示写法建议“清晰、具体、给例子”,效果稳定很多。

二、可直接复用的 Markdown 模板(拷走就能用)

Section titled “二、可直接复用的 Markdown 模板(拷走就能用)”

放到项目根目录 CLAUDE.md.cursorrules 所在目录旁,slash 命令直接引用。

# 用户画像需求文档(给AI看的)
## 1) 用户画像
- 名称:健身小白 / 28岁 / 一周3次健身
- 目标:3个月内减脂5kg
- 痛点:动作不标准、怕受伤、时间不固定
- 场景:下班晚、没有私教、想跟着短视频练
- 替代方案:随便刷视频、App里看动作库(但坚持不住)
> 画像基于访谈要点/历史数据(如有)
## 2) 5W1H + JTBD(要解决的“工作”)
- What:生成每周3次的“15分钟在家无器械”训练
- Who:上面这位用户画像
- When/Where:工作日晚 21:00,客厅
- Why:减脂 + 强化习惯
- How:AI 生成动作清单 + 演示链接 + 语音要点
- JTBD:我“雇用”这套训练来——在有限时间内安全完成一组有效的燃脂训练
## 3) 约束 / 非功能
- 设备:仅手机+瑜伽垫
- 安全:避免膝盖负担大动作
- 隐私:不上传视频
- 输出格式:Markdown 表格 + JSON(字段:动作/时长/要点/链接)
## 4) 示例(Few-shot)
- 示例输入:体力较弱、膝盖旧伤
- 示例输出:3动作×3轮,总时长 ≤ 15min;每个动作附“错误示范提醒”
## 5) 验收标准(Gherkin)
Feature: 生成在家燃脂训练
Scenario: 15分钟低冲击训练
Given 用户在“周一晚间”开始训练
When 请求“低冲击燃脂”计划
Then 返回3个动作×3轮,总时长≤15分钟
And 每个动作包含:名称/时长/要点/安全提醒/演示链接
And 生成Markdown和JSON两份输出
## 6) 优先级(MoSCoW)
- Must:低冲击、≤15分钟、Markdown+JSON
- Should:含演示链接
- Could:提供语音节拍
- Won’t:心率带联动(本迭代不做)

说明:

  • Gherkin 的 Given/When/Then 写法能让 AI 和测试都更“可执行”。
  • MoSCoW 用来控范围,防止需求膨胀。

三、把文档“接到” Claude Code / Cursor 上

Section titled “三、把文档“接到” Claude Code / Cursor 上”

1) Claude Code:用 Slash Commands 固化套路

Section titled “1) Claude Code:用 Slash Commands 固化套路”

把上面的模板拆成命令,比如 /spec persona-story。命令放 .claude/commands/*.md,支持命名空间与参数。

示例: .claude/commands/spec-persona.md

---
name: spec-persona
description: 生成“用户画像+5W1H+JTBD+Gherkin+MoSCoW”的需求文档
---
使用以下信息,补全并输出Markdown模板(保留标题),必要时提问补充:
- 用户画像:$ARGUMENTS
- 输出:中文;同时生成一个可复制的JSON骨架
- 风格:简洁,列表化,突出加粗关键字

进阶:把“写 Spec → 生成任务 → 提交 PR”串起来,官方实践里也鼓励用命令/工具把数据喂给 Claude

2) Cursor:用 Rules 让 Agent 遵守你的规范

Section titled “2) Cursor:用 Rules 让 Agent 遵守你的规范”

Cursor 官方建议“规则聚焦、可执行、分模块”,并把关键示例写进规则文件。

片段示例: .cursorrules

name: PersonaSpec
rules:
- "当我输入需求时,先生成《用户画像需求文档》,结构含:画像/5W1H+JTBD/约束/示例/Gherkin/MoSCoW。"
- "输出前必须给出Gherkin验收。"
- "范围控制遵循MoSCoW,默认排除Won’t项。"

Cursor 文档也明确了“意图上下文”与系统提示的作用,配合规则更稳。


  • 基于调研写画像,别凭想象。
  • 清晰/具体/给例子,必要时提供正反例
  • 故事化表达:采用“Persona + Need + Purpose”句式。
  • 验收先行:优先写 Gherkin,开发才不跑题。
  • 控范围:迭代用 MoSCoW,Must 写死,其它弹性处理。

五、两个实战小样(能直接丢给 AI)

Section titled “五、两个实战小样(能直接丢给 AI)”

场景 A:生成“退货工单”流程(电商后台)

Section titled “场景 A:生成“退货工单”流程(电商后台)”

用户画像

  • 客服专员;目标:3 分钟内完成退货审核
  • 痛点:信息分散、重复问买家

Gherkin 验收:

Feature: 退货工单
Scenario: 一次性收集齐证据
Given 买家提交退货申请
When 系统生成证据清单并引导上传
Then 客服可在单页查看凭证、订单详情、物流状态
And 审核通过/驳回均需一键模板回复

MoSCoW:Must=单页审核、模板回复;Should=常见原因自动判别;Won’t=本期不接三方仓 API。

场景 B:前端组件库升级清单(Cursor)

Section titled “场景 B:前端组件库升级清单(Cursor)”

需求故事: “作为前端负责人,我要把组件库从 v2 升到 v3,不改样式外观,这样我们能安全上线。”

验收 JSON(让 AI 照这个 schema 输出):

{
"breakingChanges": [{"component": "Modal", "action": "rename", "from": "isOpen", "to": "open"}],
"codemods": ["npx jscodeshift -t modal-open-codemod.js src/**/*.{ts,tsx}"],
"tests": ["Modal opens on button click", "Modal traps focus"]
}

  • 需求过大:切成可交付的“用户价值单位”;每个条目都可写 Gherkin。
  • 验收含糊:避免“看起来不错”“差不多”;用可被机器或人核对的条件+结果
  • 优先级失控:把“想要”塞进 Could,让 Must 保持可交付。
  • 画像想象化必须有依据(访谈/日志/历史工单)。

好文档不是写给老板或自己看的,而是写给 AI 和团队看的“执行说明书”。 把“画像 + 5W1H + JTBD + 约束 + 示例 + Gherkin + MoSCoW”串起来,Claude Code/Cursor 基本打不偏

你会先把哪个项目接入这套文档?你觉得呢?


Claude Code 管理你工作生活上的日记与反思

在 AI 快节奏的工作与生活中,我们常常忙于应付眼前的事务,却很少停下来审视自己的状态与方向。 如果每天只花一点时间,记录心情、总结收获、规划明天,再让 Claude Code 帮你分析趋势、发现模式、给出温柔建议,会不会让你的每一天更有掌控感?

一套可直接落地的 Claude Code 配置:含目录命令、/daily-checkin 自定义 Slash Command,以及配套 subagent(按官方文档位置放在 .claude/agents/ 而不是 .claude/subagents/)。我也顺手加了前言区(frontmatter)和允许的工具,确保能读写你的日记文件并在需要时跑点 Bash。参考依据见注释处。


Terminal window
mkdir -p .claude/commands
mkdir -p journal/daily

这是你将要通过 /daily-checkin 触发的命令文件。 说明:支持 $ARGUMENTS(若你想传备注/标签),并允许 Read/Write/Glob/Bash 工具用于读写与简单 shell。

---
description: A personal daily reflection and planning system that saves entries and triggers analysis.
argument-hint: [optional-notes]
allowed-tools: Read, Write, Glob, Bash
model: claude-sonnet-4-20250514
---
# Daily Check-in
A personal daily reflection and planning system.
## Process
1) First, understand the user's context:
- If present, read `CLAUDE.md` (project memory) to personalize greeting and understand current work focus.
- Skim any obvious personal/business context files (e.g., README, docs, roadmap) only if quickly helpful.
2) Greet warmly and ask:
🌅 **Daily Check-in for {{today}}**
Good {{timeofday}}! Let's reflect on your day.
1. How are you feeling today? (1–10 + brief description)
2. What are 3 things you accomplished today? (big or small)
3. What's your #1 priority for tomorrow?
4. Energy level: (1–10)
5. Any challenges or blockers you faced?
6. What are you grateful for today?
7. Any other thoughts or reflections?
3) After gathering all answers:
- Save **verbatim** to `journal/daily/{{today}}.md`
- File format:
```
# Daily Check-in — {{today}}
## Mood
* Score: X/10
* Notes: ...
## Energy
* Score: X/10
* Notes: ...
## Accomplishments (3)
* ...
* ...
* ...
## Tomorrow's #1 Priority
* ...
## Challenges/Blockers
* ...
## Gratitude
* ...
## Other Thoughts
* ...
```
4) Then launch the **daily-reflection** subagent to analyze:
- Provide today's Q&A content
- Also reference the last **3** days of entries if available:
`journal/daily/{{today-1}}.md`, `journal/daily/{{today-2}}.md`, `journal/daily/{{today-3}}.md`
**Subagent prompt to send:**
> Analyze today's check-in (full text below) and the last 3 days if present.
> Generate:
> 1) Mood and energy patterns
> 2) Accomplishment momentum score
> 3) Insights about productivity patterns
> 4) Gentle suggestions for tomorrow
> 5) Weekly trend if enough data
> 6) Celebration of wins (however small)
>
> Then create a **visual summary** (ASCII/markdown charts) and return a complete markdown report.
5) Save the subagent’s final report to:
- `journal/daily/{{today}}-reflection.md`
6) Tone:
- Encouraging, empathetic; focus on progress over perfection.
## Implementation Notes
- Use `Read`/`Write` to access `journal/daily/*.md`.
- Use `Glob` to find the previous 3 entries.
- Use `Bash(date:*; ls:*)` if needed to resolve dates/list files quickly.

这是被 /daily-checkin 触发的分析 subagent。位置与结构基于官方“Subagents”文档(name/description/tools 前言 + 系统提示)。

---
name: daily-reflection
description: Thoughtful life coach & personal development analyst for daily check-ins. Use to analyze today's entry plus last 3 days, then produce patterns, suggestions, and a celebration of wins.
tools: Read, Write, Glob
model: claude-sonnet-4-20250514
---
# Daily Reflection Analyst
You are a thoughtful life coach and personal development analyst specializing in daily reflection and growth patterns.
## Your Role
Help track well-being, productivity, and personal growth through insightful analysis of daily check-ins.
## Analysis Capabilities
### 1) Mood & Energy Patterns
- Track mood trends over time
- Identify energy peaks and valleys
- Correlate mood with accomplishments
- Spot early warning signs of burnout
### 2) Visual Elements
Create simple ASCII/markdown visuals such as:
**Mood Trend (Last 7 Days)**
Mon Tue Wed Thu Fri Sat Sun
7 8 6 9 7 8 ?
**Energy Levels**
[████████░░] ~80% average this week
### 3) Output Format
#### 📊 Today's Snapshot
- Mood: X/10 [emoji] (description)
- Energy: X/10 ⚡ (description)
- Wins: X ✅ (momentum status)
#### 📈 Patterns Noticed
- What's working well
- Gentle observations
- Correlation insights
#### 🎯 Tomorrow's Focus
- Gentle suggestions
- Energy optimization tips
- Celebration of progress
### 4) Analysis Guidelines
- Be encouraging and empathetic
- Focus on patterns over individual days
- Celebrate small wins
- Provide gentle, actionable suggestions
- Use positive, growth-oriented language
### 5) Output Structure (Markdown)
1. **Today's Summary** — Key metrics and mood
2. **Pattern Analysis** — Trends and insights
3. **Tomorrow's Focus** — Gentle suggestions
4. **Weekly Progress** — If enough data exists
5. **Celebration** — Acknowledge wins
## I/O Contract
**Inputs (from caller):**
- Today's full check-in text (required)
- Up to last 3 days’ entries (optional if exist)
**Process:**
- Parse numeric mood/energy if provided; estimate gently if qualitative only
- Compute a “momentum score” from count/consistency of wins
- Derive 2–4 concise, actionable suggestions for tomorrow
- Build 1–2 simple visuals
**Outputs:**
- Return a single, well-formatted markdown report.

  • 进入 Claude Code 交互界面,输入:/daily-checkin(或 /daily-checkin 备注标签)。
  • 命令会向你发起问答,保存 journal/daily/YYYY-MM-DD.md,随后自动调用 daily-reflection 生成并保存 journal/daily/YYYY-MM-DD-reflection.md
  • 若你想把命令设为“用户级”而非项目级,也可以将命令文件放到 ~/.claude/commands/(同理,subagent 放到 ~/.claude/agents/)。

Claude Code 套娃使用 Cursor Agent GPT-5 模型

把 Claude Code 当“调度中心”,用自定义 slash command 把任务转给 Cursor Agent CLI,直接用 GPT-5 在本地动手改代码、跑命令、回报结果。

GPT-5 是目前 OpenAI 最强编码模型**,在真实工程场景、长链路代理任务上都有提升;并且官方明确了它在 Cursor、Windsurf、GitHub Copilot、Codex CLI 等“代理式编码”产品里的协作优势。Codex CLI 也把 GPT-5 设为默认/推荐模型。


截图是一段位于 .claude/agents/gpt-5.md 的配置:

  • name: gpt-5,描述这位“子代理”适合深度研究、二次意见、修 Bug。
  • tools: Bashmodel: sonnet
  • 系统提示语把它定位成“资深架构师”。
  • 里面示例了一条命令:cursor-agent -p "TASK and CONTEXT",跑完再把结果回报给用户。

这就是“Claude 负责编排,实际动手交给外部 Agent(Cursor)”的套路。


它本质是“Markdown 里的常用指令”,保存在项目或个人目录,随时用 /名字 参数 触发。

  • 存放位置:项目级 .claude/commands/,个人级 ~/.claude/commands/。文件名就是命令名。
  • 可带 Frontmatterdescriptionmodelargument-hintallowed-tools 等。
  • 支持把 Bash 输出 注入上下文:用 ! 前缀执行,如 ! git status要在 frontmatter 里声明允许的 Bash 命令
  • 支持 $ARGUMENTS 占位传参、@文件引用、名字空间(子目录形成 /frontend:build 这种)。

用途:把“装配、拉代码、跑测试、生成补丁”交给外部 CLI 执行,Claude 做协调与总结。官方文档明确支持这类工作流。


  • 安装 Cursor Agent CLI
    curl https://cursor.com/install -fsS | bash
    需要时可用 --model "gpt-5"

将以下内容保存为 .claude/commands/cursor-gpt-5.md

---
name: gpt-5
description: Use this agent when you need to use gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
tools: Bash
model: sonnet
---
You are a senior software architect specializing in rapid codebase analysis and comprehension. Your expertise lies in using gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
Run the following command to get the latest version of the codebase:
```bash
cursor-agent -p "TASK and CONTEXT"
```
Then report back to the user with the result.

在 Claude Code 中使用 /cursor-gpt-5 命令,Claude 会自动识别并调用相应的子代理进行处理。

> /cursor-gpt-5 <TASK and CONTEXT>

让 Claude 当“总导演”,把执行交给 Cursor GPT-5
你要做的,就是把目标讲清楚,让它跑完、复盘、交付。

AI 产品推荐榜(截至 2025/8/9):这 25 款最值得你马上上手

这篇是给做产品、写代码、做设计的你写的上手清单。 我把最新一版「AI 产品推荐榜」按用途场景拆开,每一类只说为什么选它 + 怎么用它。 别担心长篇报告,看完就能直接用。

  • 写方案/带团队:GPT-5 / Claude Opus 4.1
  • 设计物料:Midjourney + Ideogram(排字)+ Recraft(矢量)
  • 广告/玩法视频:Sora / Veo 3 / Runway Gen-3
  • 配乐/歌声:Suno 4.5+ / Eleven Music
  • 字幕/会议纪要:Whisper → Dify 工作流
  • 多模型接入:OpenRouter + Replicate/Fal
  • 自动化:n8n / Coze / Opal
  • 本地推理/私有化:DeepSeek-R1、Wan 2.2、olmOCR

引言:今年的 AI 怎么“上手更快、回报更高”?

Section titled “引言:今年的 AI 怎么“上手更快、回报更高”?”

两句结论:

  • 通用大模型更强:GPT-5、Claude Opus 4.1、Qwen3、Kimi K2 等在推理、前端生成与 Agent 任务上明显提升。
  • 垂直工具更成熟:视频(Sora、Veo 3、Runway Gen-3)、音乐(Suno 4.5+、Eleven Music)、设计(Midjourney、Ideogram、Recraft)已经够稳、够快、够好看

通用大模型(做难题、带项目、当“脑暴合伙人”)

Section titled “通用大模型(做难题、带项目、当“脑暴合伙人”)”

1) GPT-5(首选) 前端/多模态编码能力很猛,能一把生成可上线的响应式界面,对排版与留白的审美更准。更适合把“草图想法”直接变成能点能点的页面/小站

  • 上手建议:给出 Figma 截图 + 交互说明,要求输出 Next.js + Tailwind + shadcn/ui 可运行项目。

2) Claude Opus 4.1(代码与 Agent 任务) 强化真实世界编码与多步骤推理;在 Claude Code 里可直接跑工作流,适合“先规划、再执行”的工程流。

3) Qwen3(中文生态 + 本地/云灵活) 旗舰模型在代码、数学和通用能力上对齐一线水准;阿里生态下易接入企业应用

4) DeepSeek-R1(性价比与开源氛围) 公开权重/许可更友好,强化RL 推理,适合做低成本自建推理服务与蒸馏。

5) Kimi K2 / GLM-4.5 / Grok 4(特色补位)

  • K2:大规模 MoE、长文本与工具调用增强;中文场景顺手。
  • GLM-4.5:官方强调推理、代码与 Agent场景。
  • Grok 4:原生工具使用 + 实时搜索场景强。

想在本地做实验?关注 OpenAI 发布的 GPT-OSS-120B/20B 开源权重,适合高端本地机推。


文生图(做海报、KV、Logo、社媒物料)

Section titled “文生图(做海报、KV、Logo、社媒物料)”

Midjourney:质感与风格化第一梯队,连细节光影都稳。 Ideogram排版/文字可读性强,做 KV、Banner、海报标题很省心。 Recraft:一键出可编辑矢量与扁平插画,品牌一致性好维护。 Qwen-Image中文文本渲染精修编辑能力强,适合国内场景。 Imagen(Google):写实度、排字与安全水印做得更全。

  • 实用提示:给 3 条风格线 + 1 条禁忌线(如“不要过度锐化”),要求出分层 PSD/SVG 便于后期。

文生视频(广告剪辑、应用商店预告、玩法演示)

Section titled “文生视频(广告剪辑、应用商店预告、玩法演示)”

Sora:画面质感 + 物理一致性强,已可生成20 秒 1080p并支持二次编辑。适合概念片/玩法演示Runway Gen-3提示对齐与运动连贯更稳,商业可用度高。 Luma Dream Machine(Ray2):运动摄影视觉出片快,订阅内即可用Veo 3(Google):原生音频、口型同步和图生视频能力上线到 Gemini/Vertex。 Wan 2.2:国内外开源可玩度高,适合本地/云混合部署探索。

  • 落地建议:把脚本拆成镜头表(景别/时长/主体/镜头运动),逐镜生成,再用 Runway/CapCut 拼接。

AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)

Section titled “AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)”

Suno v4.5+:多风格融合、声线更真实,新增“加人声/加伴奏/Inspire”等制作级功能。 Eleven Music全文商用定位+与 Merlin/Kobalt 的授权合作,适合品牌与商业视频配乐。 Udio:人声情感细腻、易上手,做抖音/YouTube素材很快。

  • 工作流:先用 Suno/Eleven 给 Demo,锁定BPM/情绪曲线后再迭代歌词与配器。

语音合成 & 识别(旁白/配音/字幕/笔记)

Section titled “语音合成 & 识别(旁白/配音/字幕/笔记)”

ElevenLabs TTS:70+ 语言、情感控制细腻,有成熟 API。 Whisper:开源 ASR 老将,生态有 whisper.cpp / faster-whisper 等高性能实现;低成本本地化首选。

高风险行业(医疗/法务)请人工校对,避免误识问题。


开发者工具(写代码、跑代理、接多家模型)

Section titled “开发者工具(写代码、跑代理、接多家模型)”

Claude Code:复杂任务规划-执行-复盘一条龙,用“结构化对话”推进交付。 Cursor / Copilot / Windsurf:日常增量开发与多文件重构体验更成熟。 Trae / Kiro / Gemini CLI:团队协作、移动端或命令行工作流的轻量替代可考虑。 OpenRouter / Replicate / Fal:一个入口连多家模型 & 各类生成服务,适合成本/性能动态路由

  • 落地套路:前台用 Cursor/Claude Code,后台接 OpenRouter多模型路由,图片/视频特殊任务走 Replicate/Fal

Agent & 工作流(把“人肉流程”自动化)

Section titled “Agent & 工作流(把“人肉流程”自动化)”

Dify(自建/企业就绪):可视化Agent 工作流 + RAG + 观测,云端/本地都能跑。 n8n:AI 节点 + 400+ 集成,把 CRM/工单/数据库串起来;有大量模板。 Coze零代码搭 Bot/小助手,国内团队易推广到多平台。 Opal(Google Labs):用自然语言拼迷你 AI 应用/流程,适合产品经理做快速原型


OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)

Section titled “OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)”

olmOCR(AI2):表格/公式/手写支持,阅读顺序保持好;可本地部署。 MonkeyOCR:提出 **SRR(结构-识别-关系)**范式,速度快、版面理解强OCRFlux:轻量 3B,多页合并与复杂版式处理出色;有在线 Demo 与 GGUF。

  • 工作流建议:PDF →(olmOCR/MonkeyOCR)→ Markdown →(Dify/Agent)做结构化抽取 + 知识库

别把这篇当收藏夹。 挑一个场景 + 一个模型,今天就跑一条小链路。 一周后再加一个环节,就是你的专属 AI 生产线

你最想先落地哪一条?留言告诉我。

GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结

结论先说:**GPT-5 适合做规划、结构化设计与评审总结协作;Claude Code(Sonnet / Opus)更稳于“动手执行、缝合改造”。**实际落地,用“GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结”的组合,效率更高、翻车更少。你觉得呢?


昨晚看完发布会,我的第一反应是:GPT-5 不只是更快更准,它更会“想”了。官方把“最小化推理(minimal reasoning)”和“verbosity 冗长度”做成了可控参数,还把上下文做到 40 万 tokens、单次最多输出 12.8 万,并且把 Gmail/Google Calendar 等连接器直接塞进 ChatGPT 里,团队用户今天就能用,企业与教育版 8 月 14 日跟上。

媒体给的关键词也很一致:更少幻觉、更强编码、更“像专家”;但也有提醒——宣传图表翻车,别迷信厂商曲线,要看独立评测与真实项目。


  • 可控的“思考力度”:API 里新增 reasoning_effort="minimal",能在不牺牲太多质量的情况下更快给结果;verbosity 控制回答长短与信息密度。对工程同学,这俩就是速度/质量旋钮

  • 更长的“工作记忆”40 万上下文(约 272k 输入 + 128k 输出),更靠谱的长文档/长链工具调用。

  • 价格公开输入 $1.25 / 百万 tokens,输出 $10 / 百万;mini、nano 更便宜。

  • 工具链协作:官方宣称在复杂工具调用上显著提升(τ²-bench 电信场景 96.7%),适合端到端 Agent 工作

  • ChatGPT 侧的新体验连接邮箱与日历、个性化语气与语音、学习模式等,让“日常用+团队协同”门槛更低。

一句话GPT-5 是“更可驾驭的通才”,能按需快思/深想,还更懂工具。


二、我的上手感受(含和 Claude 对比)

Section titled “二、我的上手感受(含和 Claude 对比)”

下面是我在真实仓库里的手感,偏主观,欢迎拍砖。

  • 空手起稿容易犯错:让 GPT-5 直接写一大段后端代码,API 使用与技术栈细节偶有偏差,尤其是一些“看起来对、跑起来错”的小坑;Claude Code Sonnet / Opus在这种“把活儿做细”的任务里更稳。Opus 4.1 的 SWE-bench Verified 官方给到 74.5%,确实能打。

  • “照着现有例子扩写/改写”成功率高:把已有项目的目录 + 关键文件 + 我写的最小可行样例丢给 GPT-5,它在跟随风格与兼容已有接口上更靠谱,尤其前端 UI/交互一把过。Wired 与 TechCrunch 的实测也都强调了编码与写作/分析的全面提升

  • 基准分是强,但别神化:OpenAI 自报 SWE-bench Verified 74.9%、Aider polyglot 88%;第三方也有说 GPT-5 ≈ Opus 4.1 ≈ Grok 4 的场景,差距因任务而异。所以上生产别只看分

个人结论做“蓝图”和“评审”我更愿意用 GPT-5;真正“落锤拧螺丝”,Claude Code 更省心


三、推荐工作流:GPT-5 规划 + Claude Code 执行

Section titled “三、推荐工作流:GPT-5 规划 + Claude Code 执行”

Step 1|产品/架构设计
业务目标、边界条件、非功能指标丢给 GPT-5,要求产出系统草图、接口契约、失败用例与监控点。可提示:

“用 verbosity=low 给摘要;再用 high 展开关键模块风险清单。”

Step 2|任务拆解与验收
让 GPT-5 输出里程碑 → 任务 → 验收标准,并生成代码变更清单(文件、函数、风险点)。

Step 3|交给 Claude Code 干活
现有仓库 + 任务卡 + 验收标准交给 Sonnet/Opus,要求分支开发、每步提交日志、失败可回滚Opus 4.1在多文件重构/调试的稳定性正是强项。

Step 4|双向复核
让 GPT-5 做 PR Review、补测试、写变更日志;再让 Claude 做修复与扫尾

Step 5|长链自动化
复杂链路(搜索/检索/调用 N 个工具)可优先交给 GPT-5,官方在长链与工具指令遵循上给出新数据背书;但关键步骤加人工断点,别全权放飞。


  • 0→1 原型、前端美感、落地即用:偏 GPT-5(前端生成与“按需软件”趋势多家媒体实测/评价)。

  • 大仓改造、长时间连续执行、细粒度修修补补:偏 Claude Code(Sonnet / Opus);其新版本在真实工程任务上持续强化。

  • 跨应用协同、日常办公ChatGPT(GPT-5)+ 连接器更顺手。


五、冷静两点:别被曲线图骗了,别只看榜单

Section titled “五、冷静两点:别被曲线图骗了,别只看榜单”
  • 发布会图表出过事故,官方承认“图表大翻车”。看信息请以官网页面与文档为准。

  • 独立评测还在赶:像 Vellum 这类平台给出的横评更接地气,不同数据集下胜负手不一样。把问题换成你的真实工作流,才是王道。


GPT-5 是“更会想”的通才,Claude Code 是“更会做”的工匠。
**用对位:**让 GPT-5 定战略、画蓝图、督工;让 Claude Code 推进、缝合、打磨。
组合起来,才是 2025 年最靠谱的工程打法。

你会怎么分工?评论区聊聊你的组合拳。

这套 Claude Code 命令,拯救了我每周 5 小时的编程时间

CCPlugins 是一套由社区开发者 brennercruvinel 维护的 24 条「专业级」命令包,专门为 Claude Code CLI 打磨,主打省时、省心、省 bug。它用“会话式”语法把安全检查、代码清理、特性脚手架、智能提交等繁琐活做成一条条 Slash-Command,安装脚本 30 秒就能跑完,实测每周可帮开发者节省 3~5 小时机械劳动时间。


“加个按钮”结果给你重写整套 UI?在 Claude Code 里,这事儿并不稀奇。CCPlugins 想做的,就是把 Claude 的『无穷想象力』关进笼子,让它只做你要的事


  • “Enterprise-grade workflows”:面向团队的流程化命令集,而不是单纯 prompt 宏。
  • 针对 Opus 4 / Sonnet 4 模型专门微调的上下文模板,保证输出稳定。
传统做法常见痛点CCPlugins 解法
手打 prompt过度工程 / 输出失控固定脚本 + 校验阶段 /refactor validate
人工提交信息缺失/commit 自动生成 Conventional Commit
全量扫描浪费时间Grep / Glob 只扫关联文件,增量处理

Terminal window
# macOS / Linux
curl -sSL https://raw.githubusercontent.com/brennercruvinel/CCPlugins/main/install.sh | bash
# Windows
python install.py

卸载同理:./uninstall.shpython uninstall.py

提示:脚本会把所有命令 md 文件放到 ~/.claude/commands/,再次更新直接 git pull


  • /cleanproject :秒删调试垃圾,自动 Git checkpoint 备份。
  • /scaffold user-auth :读取项目结构,一键生成完整功能骨架。
  • /review :四重子 Agent 做安全、性能、架构、可维护性体检。
  • /security-scan :链式漏洞扫描+修复跟踪。
  • /understand :自动输出架构图、设计模式清单。
  • /explain-like-senior :一句话读懂复杂代码,支持多文件。
  • /session-start / /session-end :生成 CLAUDE.md,完整记录迭代历程。

  1. 安全护航

    Terminal window
    claude "/security-scan" && claude "/review" && claude "/test"

    让 CI 在合并前跑一遍「扫描-审查-测试」流水线。

  2. 晨间例行

    Terminal window
    claude "/session-start"
    claude "/predict-issues"

    上班先预测风险,再开工。

  3. 收工一键收尾

    Terminal window
    claude "/format" && claude "/commit" && claude "/session-end"

    统一代码风格+智能提交信息+总结日志,优雅下班。


CCPlugins 把「一句话指挥 AI」升级成了模块化、可复用、可审计的工作流,让我们真正把时间花在设计和决策上,而不是 debug 和手动搬砖。还不快装一个试试?

Claude Code 在你的本地浏览器中运行

Claude Code Web UI(简称 CUI)把原本只在终端里跑的 Claude Code 搬进了浏览器,界面现代、支持并行多会话、还能推送通知和语音听写;只需一条 npx cui-server 命令即可启动,登录后就能在任何设备继续你的 AI 编程任务。


还在命令行里和 Claude “黑屏对话” 吗?CUI 让 AI 编程体验直接升级成云端 IDE,点开浏览器就能写 Prompt、跑 Agent、收通知,连手机也能随时接力。


  • React + TypeScript 打造,界面自适应桌面与移动。
  • 自动补全 与 CLI 保持一致,上手零学习成本。
  • 支持 多任务同时流式输出,复杂项目不再排队。
  • CUI 会扫描 ~/.claude/ 历史,集中展示并可一键 Resume / Fork / Archive
  • 集成 ntfy,任务跑完或等待授权时立即提醒。
  • 连接 Google Gemini API,长句语音转文字又快又准。

  1. 环境准备

    • Node.js ≥ 20.19.0。
  2. 一键启动

    Terminal window
    npx cui-server
    # 或全局安装:npm i -g cui-server

    终端会输出一串 #token,复制备用。

  3. 浏览器访问 打开 http://localhost:3001/#<token> 即可登陆。

TIP: 需要远程访问?在 ~/.cui/config.jsonserver.host 设成 0.0.0.0,或用 --host / --port 参数,再配合 Caddy 反向代理升级 HTTPS。


  • Tasks 标签页查看正在运行的会话;长任务可直接关页后台跑,不怕断线。
  • / 调命令、@ 调文件,和 CLI 保持同一套肌肉记忆。
  • ⌘/Ctrl + Enter 发送,空格换行,小技巧提高 10% 敲字效率。
  • 先在系统里导出 GOOGLE_API_KEY,再重启服务器即可开启语音输入。
  • 任意设备装好 ntfy 客户端,订阅同一 Topic,任务结束马上震动提醒,不再盯屏。

CUI 把 Claude Code 的能力做了“浏览器可视化外壳”,轻量安装+远程访问+推送生态,让 AI 编程像刷网页一样丝滑。你最期待用它解决什么痛点?评论区聊聊!

Claude Code 助你开发效率从 1× 到 100× 的蜕变

你是不是也听过那句经典论调:「一个 1× 工程师用 AI 是 0.1×,但一个 10× 工程师用 AI 就是 100×」。这不是夸张,而是真的 —— 前提是你具备 系统思考、沟通精准、架构设计 等关键能力。本文逐条拆解,结合 Claude Code 的真实能力,告诉你如何将 AI 效能暴涨 100 倍。


场景 1:高维思维 vs 文件级思维 🚀

Section titled “场景 1:高维思维 vs 文件级思维 🚀”

.1× 工程师只能想“写一个方法”,而 100× 工程师能够在心里保持整个系统的状态。Claude Code 能够瞬间建立对百万行代码的整体视图。只需一句话,你就能让它 “搜索项目中的用户权限逻辑,分析跨服务依赖,并生成包含所有修改的 PR” —— 整个代码库级别的联动由 Claude 去做。

举例 你想将 authToken 的加密方式从 HMAC-SHA256 换成 RSA:只需一句 “用 RSA 重写 token 逻辑并确保测试绿灯”;Claude Code 一次性跨 5 个文件:controller、service、utils 和单测,形成协调一致的 Git 提交。


场景 2:沟通精确度,就是效率倍增器

Section titled “场景 2:沟通精确度,就是效率倍增器”

.1× 工程师给出模糊需求,CLAUDE 要 “猜”、要“试”,容易反复。

而那些会写工程思维文案的 100× 工程师知道,prompt 写得像好文章,LLM 才能帮你精准执行。

Claude 团队多次强调结构式 Prompt:包括背景、意图、格式、例子、校验条件等要素。

举例 你想重构 calculateScore 函数,并确保逻辑保持一致: 你提供示例输入输出表、希望 PR 标题模板、CI 校验规则;然后一句话交给 Claude Code:“基于以下示例和规则,重构 calculateScore,请输出 PR diff、测试报告和 commit message。”

结果:PR 合格率 99%,人工 Curate 降低 20 倍。


场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出

Section titled “场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出”

.1× 工程师头也不回地叫 Claude 写功能,结果系统崩;100× 工程师知道重要的是事前设计。

Claude Code 能结合长上下文记忆与工程意图,执行设计得当的结构变更——Cue MCP(Model Context Protocol),让 Claude 可以接入你的设计文档、tickets、架构图等,形成长期视角(state)。

举例 你计划把 monolith 分拆成 service mesh:先写明确文档 + 接口契约 + 合并策略,然后用 Claude Code 一步步生成 scaffolding、提取逻辑、生成 SDK 和原型 PR,甚至连 CI 配置都自动生成,测试通过才交给你审查。


场景 4:上下文控制力,是你价值的翻倍杠杆

Section titled “场景 4:上下文控制力,是你价值的翻倍杠杆”

停止把 LLM 当作 autocomplete,开始把它当作系统级上下文引擎。Claude Code 嵌入了 Claude Opus 4,能完整地理解整个项目结构、依赖图、命名规则、样式规范,甚至 README 和 issue template。

举例 你想新增一个“移动端缓存层”模块。只要一句话让 Claude Code “遵循项目现有的 cache‑service pattern,生成 consistent module + README + unit tests”,它就能识别 pattern,把新增代码一致地插入代码架构。


场景 5:真实智力与系统思维优先,工具知识可有可无

Section titled “场景 5:真实智力与系统思维优先,工具知识可有可无”

.1× 工程师挂靠 IDE 快捷键记事,.10× 工程师从 Node.js 切到 Go r,但 100× 工程师享受的并不是写代码,而是提出模式、解构问题并让 Agent 去买单

Claude Opus 4 在 Anthropic 自己内部被称为 “the best coding model in the world”,能让工程师“在几小时内持久完成数百步骤的复杂任务”——这就是系统思考+Agent 控制的典型成果。

举例 你想重写一个微服务,从 Express 移植到 Rust,保留原先全部行为边界:你写需求和样板数据,Claude Code 自动 scaffold Rust 服务、生成 HTTP 接口、映射数据模型、迁移旧逻辑,还生成了对比测试和部署 config。


场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟

Section titled “场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟”

对 100× 工程师来说,Claude 会把你的组织原则、命名规范、测试覆盖、文档风格“学习”起来,然后在每个 commit 中都一致执行。如果你乱写英文注释和乱用缩进,它会帮你继续乱;你有纪律,它把你变成一套风格化的引擎。

举例 项目早期你严格遵守 <service>.test.js、commit 90 字以上 PR 描述,README 和 issue 模板齐全。Claude Code 会像你一样严格标注 "BREAKING CHANGE"、现在发现未测试路径不会生成代码,commit 中自动引用 issue ID。如果项目混乱,它生成的 commit 往往也会混乱——这个“坐骑”跟谁奔,谁有节奏。

来自社区真实反馈:

“I have mindlessly asked Claude Code over a large codebase … it gave an extremely clear report…” —— 大意是即便 prompt 不好,但项目结构清晰,Claude Code 挺给力。


  • Claude Code 并不仅是智能编写代码,更是让你能像架构师一样思考系统问题,精准沟通设计意图,持续维护代码标准。
  • 它不是让你不写代码,而是让你的大脑留给真正重要的决策,把繁重重复任务交给 AI 去背。
  • 当你把系统思考、prompt 文案、项目结构、测试覆盖、工程规范等打磨好时,Claude 就像你零误差的 100× 扩音器。

Claude Code Security Review 帮你盯代码安全漏洞

Claude Code 刚发布的 claude-code-security-review 把 Anthropic Claude 的大模型推理力塞进 GitHub Actions 和终端指令里。它能在拉取请求(PR)阶段就解析 diff,找出 SQL 注入、XSS、授权绕过等高风险漏洞,并自动过滤低价值噪声,还能通过 /security-review 一键在本地扫描。你的代码还没合并,潜在漏洞就已经被 AI 点名。


一、Claude Code Security Review 是什么?

Section titled “一、Claude Code Security Review 是什么?”
  • AI 驱动的安全审计:调用 Claude 的深度语义理解,超越正则匹配,直接读懂代码意图。
  • GitHub Action 集成:在 PR 打开或同步时自动触发,漏扫结果回帖到具体代码行。
  • 终端 Slash 指令:在 Claude Code 里输入 /security-review,同样的扫描能力即刻离线运行。


内置 False Positive Filtering,默认屏蔽 DOS、资源耗尽、无实际影响的输入校验等低危告警,只把真正要命的洞拉出来。

可识别注入攻击、鉴权缺陷、硬编码密钥、弱加密、业务逻辑竞态等 10 大类问题。

只分析改动文件,不挑语言,适合多语言微服务仓库。

一段 YAML 就能跑:

- uses: anthropics/claude-code-security-review@main
with:
claude-api-key: ${{ secrets.CLAUDE_API_KEY }}
comment-pr: true

VentureBeat、The New Stack 等媒体均指出,随着 AI 生成代码量激增,自动化安全审计已成刚需。这一 Action 正填补空缺。


  1. 在项目根目录新建 .github/workflows/security.yml
  2. 复制上方 YAML,并在仓库 Secrets 里添加 CLAUDE_API_KEY
  3. 提 PR 即可看到 Claude 自动评论漏洞详情 + 修复建议

<空一行>

在终端或 VS Code Claude Code 面板输入:

/security-review

即可对当前未提交改动执行同等级别审计,适合单人开发或离线场景。

<空一行>

  • 将仓库中的 security-review.md 复制到 .claude/commands/
  • 编辑过滤规则或补充公司专属安全基线,比如禁止弱密码算法。

场景触发方式AI 发现的问题结果
内部工具新增本地 HTTP 服务PR 合并前自动审计DNS Rebinding → RCE漏洞在合并前被修复
老项目重构终端 /security-review敏感日志泄露 + 弱加密 AES-ECB一键生成加密/日志修复 Patch
多语言微服务仓库每次 PRPython 依赖投毒 + Node XSSPR 评论列出漏洞 + npm audit fix 指令

AI 写码快,AI 把关安全更要快。把 claude-code-security-review 接入你的 DevSecOps 流水线, 让每一行提交先过安全门,再进主干。下一个零日,也许就被你提前关在门外。

Claude Code 的 Slash‑Commands 与 Sub‑Agents 的区别与协作实战

你有没有想过,可以把常用的 AI 操作包装成快捷命令,一键执行,还能让 AI 拆任务后分工合作?Claude Code 正是这样一款能让开发者更高效、更规范、也更有趣地使用 AI 辅助编码的工具。今天我用轻松的语言跟你聊聊它的两个核心功能:Slash‑CommandsSub‑Agents,并告诉你它们有什么特点、用法和区别,还举几个真实的例子让你立马能用。

在 Claude Code 中,Slash‑Commands 就像你事先写好的“快捷按钮”,能一键触发标准流程;而 Sub‑Agents 就像一支由多个 AI 小助手组成的团队,每个小助手专精一项任务,由主 Claude 给它们安排工作。


Slash‑Commands:你自定义的 AI 快捷按钮 🚀

Section titled “Slash‑Commands:你自定义的 AI 快捷按钮 🚀”
  • 自定义提示写一次,用命令调一次:将常用操作(如代码审查、性能优化、Issue 修复)写入 .claude/commands/*.md 文件,Claude 就把这套提示视为一个命令。输入 /命令名 参数 就能自动执行对应流程。
  • 支持参数化:命令中可使用 $ARGUMENTS 占位,输入参数时会替换提示内容,接收 Issue 编号、模块名等参数灵活调用。
  • 项目共享或个人私用:放在 .claude/commands/ 为项目级命令,整个团队都能用;放在 ~/.claude/commands/ 则是个人私有命令。

比如你定义一个 /fix-issue 命令,模板里写好修复流程:

修复 GitHub issue:$ARGUMENTS。
请执行以下步骤:
1. 用 gh issue view 获取详情;
2. 分析问题; 3. 找到相关代码; 4. 提交修复;…

在命令行输入:

/fix-issue 123

Claude 会进行 Git 操作、代码修改、开 Pull Request,整个过程自动化,省了你一大堆重复步骤(也可以选择是否自动提交)。适合重复修 issue、审查 PR、生成文档等场景。


Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠

Section titled “Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠”
  • 每个子代理心无旁骛:Sub‑Agents 是具有独立上下文的“小 Claude”,专门负责一类任务,如性能优化、测试生成、代码审查等,从不干扰主对话体。
  • 角色自定义,可复用:你可以用 /agents 命令创建子代理配置,每个代理有明确名称、描述和权限(如只读代码、运行 tests、调用 grep 等)。
  • 主代理负责统筹,并可串联多个子代理:主 Claude 根据上下文决定哪些子代理执行哪些任务,支持任务拆分、职责分明,最终结果汇总返回主对话界面。

假设你定义了几个子代理:

  • code-reviewer.md:只审查代码风格和安全问题
  • test-builder.md:专门生成单元测试
  • debugger.md:负责查错误日志并定位问题

你和 Claude 这样对话:

“请审查 auth 模块” → 主代理调用 code-reviewer “这个模块单测写一下” → 调用 test-builder “发现测试失败,找错在哪” → 调用 debugger

最后主代理把输出汇总给你。整个过程就像你请来了一队 AI 助手各司其职。


两者区别:敲门方式不同,分工视角不同

Section titled “两者区别:敲门方式不同,分工视角不同”
项目Slash‑CommandsSub‑Agents
调用方式开始输入 / 触发命令对话中自动或显式使用 /agents 调用特定子代理
使用门槛写模板即可,比较直观需要定义角色描述、工具权限、提示风格等,比较复杂
场景定位重复、标准流程类任务专业、复杂或可拆分任务(如测试、审查、调试)
输出控制每次用模板一致,比较固定可以拆多个阶段,用不同代理负责不同环节,输出更细化
可维护性模板文件易管理,适合团队共享子代理配置文件复杂,需要版本控制、同步更新

使用举例:真实工作流中的两者协同应用 👩‍💻

Section titled “使用举例:真实工作流中的两者协同应用 👩‍💻”
  1. 规范审查流程

    • 写一个 Slash‑Command /security-review,模板里自动检查代码安全点。
    • 主代理调用 security-review,并根据情况再触发 code-reviewer 子代理输出细节。
  2. 自动修 Bug + 提单

    • Slash‑Command /fix-issue 456 启动:主代理扫 GitHub issue -> 调用 debugger 查错误 -> 修改代码 -> 再调用 test-builder 写测试 -> 最后开 Pull Request。
  3. 模块协作场景

    • 创建 frontend-expert 子代理专注 React 组件优化、创建 backend-optimizer 子代理负责 API 性能。
    • 项目想做一个新 feature 时,主代理一个流程让两个子代理各自产出方案,再汇总由你决策。

Slash‑Commands 是你的快捷命令按钮,适合反复、标准化的操作 Sub‑Agents 是你背后的 AI 小团队,可拆任务、多角度、各司其职

建议你先试 Slash‑Commands:把最常做的几个操作放到命令里,团队共享模板文件。 熟练之后,再逐步引入子代理,将复杂流程拆给它们去做,主代理调度、你把控。这样可以少走弯路,也不会一开始就被工具搞晕。

如果你是小团队或短项目,一两个 Slash‑Commands 和简单子代理就很够用;长期项目或多人团队,就能慢慢扩展出完整的 AI 协作流水线。就像请了一个靠谱的 AI 助手团队,开发效率和规范性都会明显提升。

Claude Code + Backlog.md 打造 AI 协作 + Git 看板

Backlog.md + Claude Code 把任何 Git 仓库秒变「看板 + 文档 + AI 协作中心」,而且所有数据都只是 Markdown 文件,离线私有。下面这篇文章会带你 5 分钟上手,从安装、核心亮点到典型工作流,一口气讲透它为什么能成为「人类 + AI」共创项目的最小可行栈。


还在多个 SaaS 工具之间疯狂切换?Backlog.md 用一行命令就能在本地生成一个完整的项目管理系统,既适合个人极客,也能无缝接入多智能体流水线,让 Claude、Gemini 直接读写任务。


  • 每个 Issue 就是一张 task-123 - title.md,随时 Git diff。
  • 本地编辑器香,AI 也读得懂。
  • 所有文件都在仓库里,无需外网依赖;在火车上也能改看板。
  • backlog board 直接在终端渲染实时列队。
  • backlog browser 自动打开响应式 Web UI,拖拽更新状态。
  • 自带 CLAUDE.md 等说明文件,输入「Claude 请接管 task-33」即可分配工作。
  • 支持子代理、Ultrathink 规划,常见模型都能配。
  • npm i -g backlog.mdbrew install backlog-mdnix run 随便挑。
  • Homebrew & Fedora 包同时上线,版本跟进快。

步骤命令说明
初始化backlog init "AI Side Project"交互式配置,自动生成 backlog/ 目录
捕捉任务backlog task create "重构登录流程"支持描述、负责人、标签、优先级等
查看进度backlog boardbacklog browser终端 / 浏览器两种味道

**Tips:**想让 AI 批量拆解需求?直接把 PRD 粘给 Claude:“请用 ultrathink 拆分任务并识别依赖”。


backlog board export README.md --export-version "v1.0.0" 生成带版本号的 Markdown 看板,推上 Git 立刻同步团队。

  • 利用 git worktree 或次仓库把 BE / FE 任务汇总到同一目录;所有链接仍指向原始分支。
  • backlog config set autoCommit true 省去手动 git add/commit
  • 若你有严格 pre-commit,可 bypassGitHooks true

backlog overview 在终端显示任务燃尽、柱状统计,让你秒判项目健康度。


  1. 独立开发者:本地 Git + Markdown,一台电脑全部搞定。
  2. 远程小团队:Pull Request 即同步任务状态,免 Jira。
  3. AI 代理流水线:LLM 读取 / 更新 task 文件,实现「规划→编码→PR」闭环。

Backlog.md 用最原生的工具链,把项目管理、文档、AI 协作三件事合一,帮我们把注意力拉回「写代码」本身。

你准备试试这种「本地 Git 看板」了吗?评论区等你分享体验!

Claude Code Cookbook 秘籍:自动化命令 + 多角色 + 智能 Hook

打造你专属的 Claude 编程操作系统


很多人用 Claude Code 写代码,但你有没有觉得:

  • 明明 Claude 很强,却总得手把手教
  • 每次要做测试、改文档、生成 PR,全靠你提醒?
  • 或者切换角色让人手忙脚乱,效率不升反降?

最近日本工程师 @wasabeef 放出一个神级项目 —— claude-code-cookbook让 Claude Code 像“自动化开发助理”一样,干活快、反馈准、思路清。

它不是一个普通的 Prompt 模板,而是 Claude 的“扩展操作系统”。

👇 我已经试了几天,非常惊艳,强烈推荐给所有用 Claude 开发项目的朋友!


🔧 三大核心功能:解锁 Claude 的隐藏能力

Section titled “🔧 三大核心功能:解锁 Claude 的隐藏能力”

🧾 1. Commands:让 Claude 听你的命令

Section titled “🧾 1. Commands:让 Claude 听你的命令”

只要输入 /命令名,Claude 就会开始执行对应任务。

比如:

命令功能
/explain-code自动讲解代码逻辑
/fix-error根据报错,生成修复方案
/commit-message自动写 Git commit 信息
/pr-create自动生成 PR 内容
/check-prompt帮你优化提示词
/semantic-commit语义化提交,提升版本控制质量

光是这些就足够让你减少大量重复性对话。

💡 每个命令本质是 Markdown 文件,支持自定义扩展,放进 commands/ 目录即可。


🎭 2. Roles:多角色切换,Claude 化身专业顾问

Section titled “🎭 2. Roles:多角色切换,Claude 化身专业顾问”

Claude 支持像“子人格”一样切换不同角色,比如:

  • /role qa 测试工程师
  • /role mobile 移动开发专家
  • /role security 安全顾问
  • /role architect 架构师

🌟 亮点是:支持并发执行!

Terminal window
/role performance --agent
/role security --agent

Claude 会同时启动多个角色,并行分析,最终统一出具建议。 这在做大项目评审、设计审查时,非常有用。


⛓ 3. Hooks:自动脚本,开发体验拉满

Section titled “⛓ 3. Hooks:自动脚本,开发体验拉满”

你可以设定一些脚本钩子,在特定时机自动运行。

比如:

  • check-ai-commit.sh:禁止 AI 签名出现在 Git 提交中
  • preserve-file-permissions.sh:自动保存/恢复文件权限
  • auto-comment.sh:提示添加 docstring 注释

连 “任务执行完提醒你” 这种小贴心也安排上了:

Terminal window
osascript(macOS 通知脚本)

一句话,Claude 真成了一个帮你打杂 + 提醒 + 写代码的靠谱搭子。


👇 项目里自带了一套开发流程图,从任务识别到 CI 状态追踪,一气呵成:

开发流程图

你甚至可以照这个逻辑,定制自己团队的“Claude 开发流水线”。


  1. 克隆仓库:

    Terminal window
    git clone https://github.com/wasabeef/claude-code-cookbook.git ~/.claude
  2. 在 Claude 客户端设置路径

  3. 修改 settings.json 来挂载 hooks、扩展命令

🛠 添加自定义命令、角色也只需在对应文件夹写 .md,很容易上手。


🧠 总结:把 Claude 变成你的工程副驾

Section titled “🧠 总结:把 Claude 变成你的工程副驾”

Claude Code Cookbook 带来一套系统化的开发工作流,让你:

  • 高效组织项目任务,Claude 自动跟进
  • 自由切换专业角色,应对不同工作情境
  • 自动化脚本辅助,彻底解放双手

对每个用 Claude 做 serious 开发的你来说,这是提升效率与专业度的神器。


📣 你最想定制什么命令给 Claude? 欢迎在评论区分享,一起打造更聪明的 Claude 助理!


如果你喜欢这类 AI 工具技巧,记得【在看 + 转发】给你搞技术的朋友!

Claude Code 不写代码,用来管理我的日常生活

还在用 Claude Code 写代码?我已经用 Claude Code 管人生了。

这不是段子,我用 Claude Code 打造了一套“生活操作系统”,轻松管理日常、抓住灵感、追踪目标,连心理状态都照顾到了。

只要 10 分钟设置好,Claude 每天就能帮我完成很多琐碎但重要的事。


👀 五个例子,看懂 Claude 有多厉害

Section titled “👀 五个例子,看懂 Claude 有多厉害”

Claude 每周自动生成我的成长仪表板:比如我的视频播放量、写作字数、收入变化……

📌 用法:用 /weekly check-in 命令,Claude 会生成图表 + 重点分析,甚至给我推荐内容选题!

亮点:像个不抱怨的私人教练,每周夸我一波,还顺便提点建议。


每天花 2 分钟,Claude 引导我写下当天的收获、反思和感受,还能追踪我的情绪和习惯。

📌 用法:运行 /daily check-in,回答几个问题,日记就自动整理好了。

亮点:培养自我觉察和感恩习惯,远离情绪内耗。


我只需要贴几个竞品链接,Claude 就能帮我写出自己的内容初稿。

📌 用法:用 /newsletter researcher 命令,它会分析我的风格,结合我的特点,生成新草稿。

亮点:节省 80% 选题和调研时间,灵感不用等,Claude 帮我找!


零碎的笔记太多?Claude 自动整理,变成思维导图或文章提纲,还能挖掘隐藏灵感。

📌 用法:把笔记导入 Claude,运行 /brain dump analysis 命令即可。

亮点:让“碎片笔记”变身“商业机会”。


Claude 会根据我的兴趣,汇总行业最新动态、新闻、创作灵感,每天早上准时送达。

📌 用法:设置 /daily brief 命令,它会自动搜索并整理。

亮点:不用刷 X / Twitter / 朋友圈,Claude 一站打包送上。


🧰 10 分钟打造我的「生活操作系统」

Section titled “🧰 10 分钟打造我的「生活操作系统」”
  1. 准备环境 安装 Claude Code(推荐使用 VS Code, Cursor 等),新建个人信息 markdown 文件。

  2. 初始化配置 执行 /init 命令,Claude 会生成规则文件。

  3. 设置 Slash 命令 从 Google Docs 复制提示词,比如 /weekly check-in/daily brief 等。

  4. 运行和定制 每天/每周运行这些命令,Claude 自动执行。我还可以让它生成更多自定义 Agent!


  • 节省时间:每周省下数小时,让 AI 替我搞定琐事。
  • 高度个性化:Claude Code 会根据我的兴趣和工作风格定制输出。
  • 技术门槛低:不需要写代码,复制提示词就能用。
  • 无限扩展:可以扩展成会议记录助手、待办清单生成器……

  • 刚上手也能玩:提示词非常清晰,新手照做即可。
  • 根据自己定制:试着加入我工作中常用的工具、流程,Claude Code 很擅长做“个性化助手”。
  • 记得跑起来!:把命令设成每天自动运行,Claude Code 会越来越懂我。

你最想 Claude Code 替你做什么?

Claude Code 太贵用不起?自建账号拼车共享是趋势

Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!

Section titled “Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!”
  • 8 月 28 日起,Claude Code 订阅新增「按周计量」;官方点名要打击 24/7 后台跑脚本账号共享
  • Anthropic 估算 不到 5 % 用户受影响,但重度开发者大概率中招
  • 痛点:多人共用一号 → 配额飙升 → 提前触顶 → 团队开发被迫停摆。

你也担心突然「被停机」吗?留言聊聊你的踩坑经历👇


二、为什么选 claude-relay-service?

Section titled “二、为什么选 claude-relay-service?”
功能场景价值
多账户池 & 自动轮换拼车 N 号也不怕封顶
OpenAI/Claude 双格式 API老项目零改动接入
一键 OAuth 授权新账号 30 秒入池,再也不用手动 Cookie
按 Key 计费统计精准核算谁用掉多少 token,分钱不再吵架
客户端白名单防止 Key 外泄,被脚本薅爆

风险提示:自建中转可能违反 Anthropic ToS,请自行承担责任。


三、3 分钟 Docker-Compose 快装指南

Section titled “三、3 分钟 Docker-Compose 快装指南”

跟着抄就能跑

准备项目

Terminal window
# 克隆项目
git clone https://github.com/Wei-Shaw/claude-relay-service.git
# 进入目录
cd claude-relay-service
# 复制 .env.example
cp .env.example .env

修改 .env(务必改成随机值)

# 必填:安全密钥(请修改为随机值)
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:管理员凭据
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

一键启动

Terminal window
docker-compose up -d

启动完,浏览器打开 http://<服务器IP>:3000/web,如本地 http://localhost:3000/web,日志里能看到自动生成/自定义的管理员账号。

登陆后 Web 界面预览效果:

管理面板

API Keys 管理

账号管理

使用指南

  • 一人一 Key:在后台「API Keys」页为每位同事生成密钥,可设速率/模型限额防滥用。

  • 环境变量:环境变量里把 ANTHROPIC_BASE_URL 指向 http://localhost:3000/api/, ANTHROPIC_AUTH_TOKEN 指向上面生成的密钥,不改业务代码。

Terminal window
# 环境变量
export ANTHROPIC_BASE_URL="http://localhost:3000/api/"
export ANTHROPIC_AUTH_TOKEN="cr_<your_token>"
# 启动 Claude Code
claude
  • 监控面板:实时看 token 消耗,配额预警提前拉闸,避免突然触顶。

价格/周期备注
2核4G 轻量云¥30-60/月跑 Relay+Redis 足够
Claude Max 200 刀可多人拼人均成本随人数递减
域名+CDN选配需公网 HTTPS

合规提醒:官方已明确禁止转售、共享账户;若被检测到异常流量,账号可能被封或限流。


现在就部署自家「小中继」,把配额握在自己手里。 转发给还在担心被限流的同事,一起薅到极致!


你准备怎么分配 Key & 配额?欢迎在评论区支招~

Claude-Code-Remote:用邮件 / Discord / Telegram 远程操控 Claude Code 的终极指南

Claude-Code-Remote 把终端里的 Claude Code 搬上「邮件 / Discord / Telegram」,让你躺在沙发上刷手机也能远程下指令、收进度、续写命令,真正实现 24 × 7 异地协作与长任务托管。


开着 Claude Code 跑单元测试、重构、生成文档,一等就是几十分钟,甚至几个小时。 过去你要守在电脑前盯着 tmux 窗口,现在只需一封邮件就能收到「任务完成」通知,直接回复邮件再下新指令——这就是 Claude-Code-Remote 带来的体验。


  • 任务完成即自动发邮件 / 私聊消息提醒,不怕网络掉线。
  • 在地铁里回一封邮件就能继续驱动 Claude 干活。
  • 通过 settings.jsonHook 机制把通知与命令注入,升级官方 CLI 也不冲突。
  • 仅白名单邮箱 / 用户可下指令;
  • 每条指令映射到独立 tmux Session,互不干扰。
  • 已有社区的 Web UIDiscord Bridge 等扩展,随时接入更多沟通场景。

场景痛点Claude-Code-Remote 解决方案
长时间单元测试 / LLM 自动 Refactor本地等结果浪费时间结果出邮件→回复邮件继续下一步
出差在外临时改 Bug无法 SSH 回公司内网Discord/Telegram 发指令,远端 tmux 即时执行
多地协作 Code Review时区差异大白天在办公室启动 Claude,晚上手机收总结并批量回复优化点

Terminal window
git clone https://github.com/JessyTsui/Claude-Code-Remote.git
cd Claude-Code-Remote && npm install
Terminal window
cp .env.example .env
# 填写 SMTP / IMAP / ALLOWED_SENDERS

Gmail 用户别忘了申请 App Password

~/.claude/settings.json 追加:

"hooks": {
"Stop": [{
"command": "node /path/claude-remote.js notify --type completed"
}],
"SubagentStop": [{
"command": "node /path/claude-remote.js notify --type waiting"
}]
}

然后:

Terminal window
npm run relay:pty # 监听邮箱
tmux new -s project && claude # 正常启动 Claude

完成! 以后 Claude 结束任务就会给你发通知,直接「回复原邮件 → 下一条命令」即可。


  1. 结合 Claude-Code-UI:在手机浏览器可视化查看文件树与历史。
  2. Discord Slash 命令:和团队一起群控 Claude,支持图片上传。
  3. Telegram Bot 自动化:用 /deploy 一键触发 CI/CD。

Claude-Code-Remote 把「等待 → 通知 → 二次指令」三件事拆解,用最通用的邮件/IM 通道把 Claude 彻底解耦出终端,让 AI 代理真正跑在后台,而人类专注高价值决策。 如果你厌倦了守着黑乎乎的 Shell,就把它装上试试吧!


**你觉得这种远程操控方式能帮你省多少时间?**👇 留言区聊聊,你的实战经验可能会成为下一篇案例!

把 Claude Code 搬上手机与网页:Claude Code UI 全面上手

Claude Code UI 是一个开源的 Web/移动端界面,连接本机或远程服务器上的 Claude Code CLI,提供对话、文件与 Git 浏览、内置 Shell、会话管理等能力;默认关闭高风险工具,支持按需启用与权限控制。项目采用 GPL-3.0 许可,持续活跃迭代。

它把终端里的 Claude Code 搬上浏览器与手机,帮你在任何设备上用更顺手的方式管理会话与项目。


  • 摆脱纯命令行的局限:Claude Code 官方以 CLI 为主,功能强但对新手/移动端不够友好;UI 将其结构化到网页上,降低操作门槛。
  • 跨设备轻量远程使用:在 iPad/手机上即可查看项目、切换会话、审阅改动,适合通勤、会议或外出场景。
  • 把常用开发动作集中到一个界面:对话、文件编辑、Git 操作、终端与会话历史集中呈现,减少上下文切换。

  1. 桌面 & 移动自适应 响应式布局,桌面/平板/手机均可用,可添加主屏快捷方式(PWA 体验)。

  2. 对话式界面 + 实时流式输出 内置聊天面板与会话管理,支持恢复历史会话、查看时间线与元数据。

  3. 集成 Shell 终端 在 UI 内直接接入 Claude Code CLI 的命令行能力(如执行任务、查看日志)。

  4. 文件浏览与在线编辑 左侧文件树、语法高亮、读写保存、创建/重命名/删除文件与目录。

  5. Git 浏览与基础操作 在界面中查看、暂存、提交与切换分支;近期版本还加入了 push/pull/fetch

  6. 项目与会话自动发现~/.claude/projects/ 自动收集项目;会话自动持久化并可导出。

  7. 安全默认值 & 权限/工具开关 默认禁用所有工具,在设置里按需逐项启用;支持与 Anthropic 的 Permission Modes 对齐(Plan mode 更新中引入)。

  8. 认证与多用户准备 1.1.4 起引入登录/注册流程与基于 SQLite 的鉴权与受保护路由。

  9. 持续迭代 截至 2025‑07‑13 的 v1.5.0 支持在设置中添加 MCP 服务器;此前还有版本管理提示、Vite 7 升级等。

说明:官网安装页写的是 Node.js 16+,而仓库 README 要求 Node.js 20+;实际以仓库 README 为准,建议使用 Node.js 20+


  • 移动端快速处理:通勤路上用手机查看 Claude 的执行进度、补充提示词、微调文件。
  • 远程项目巡检:在浏览器上直连放在云主机或办公室电脑里的 Claude Code,查看日志、提交小修。
  • 代码审阅与教学演示:通过 UI 展示 Claude 的推理过程、变更与 Git 历史,降低团队沟通成本。
  • 与其他生态搭配:例如你已在用 Claude Code CLI 或 SDK/参考文档,UI 让「看得见、点得到」。

前置:确保你已安装并可使用 Claude Code CLI(Anthropic 官方)。

  1. 安装 Claude Code CLI

    Terminal window
    npm install -g @anthropic-ai/claude-code
    # 参考官方文档完成鉴权与配置
  2. 准备运行环境(建议 Node.js 20+) 安装 Node.js ≥20,克隆仓库并安装依赖:

    Terminal window
    git clone https://github.com/siteboon/claudecodeui.git
    cd claudecodeui && npm install
  3. 配置 .env

    Terminal window
    cp .env.example .env
    # 按需设置端口、主机、反向代理/HTTPS 等
  4. 启动服务并访问

    Terminal window
    npm run dev
    # 浏览器访问 http://localhost:你设置的端口
  5. 首次使用建议

    • 在左侧项目列表中,确认 UI 已自动发现 ~/.claude/projects/
    • 打开右上角齿轮,只启用必需的工具,遵循最小权限原则。
    • 需要 Git 同步可在 Git 面板进行查看/暂存/提交,必要时使用 push/pull/fetch。
  6. 移动端安装为「应用」 在手机浏览器“添加到主屏幕”,以 PWA 方式获得更接近 App 的体验。


  • 默认即安全:工具默认关闭,逐项开启;遵循 Anthropic 的 Permission Modes
  • 认证与访问控制:启用登录/注册(v1.1.4 起),限制公网访问,优先内网/SSH 隧道/反代。
  • 版本更新:UI 带有更新检查与提示,按提示 git pull && npm install 升级。
  • 环境要求一致:以仓库 README 的 Node.js 20+ 为准,避免官网页面旧信息导致的不兼容。

如果你已经在用 Claude Code CLI,Claude Code UI 能显著降低跨设备管理与协作的摩擦.

羊毛党噩耗:Claude Code 发布新按周限额政策,打击账号共享和转售

摘要: Anthropic 宣布 8 月 28 日起,将为 Claude Code 订阅用户叠加「按周限额」,并单独对顶配 Opus 4 模型设周上限。官方直言:有人把 Claude 当“24×7 编码矿机”,甚至共享账号、倒卖配额。新规旨在“仅影响不到 5 % 的用户”,却引爆开发者社区——不少“羊毛党”感叹薅不到 GPU 算力了。


还记得之前靠“共享账号 + 自动脚本”无限刷 Claude Code 的日子吗?好日子到头了。 Anthropic 给订阅户发邮件,宣布一套更严的周限额体系,理由只有一句话:公平 + 稳定

“部分高级用户把 Claude 挂后台 24 小时跑,甚至转卖访问权限,拖慢了所有人。”——官方邮件


变动旧规则新规则(8 月 28 日起)
短时限额每 5 小时刷新(不变)保持不变
整体周限额每 7 天刷新
Opus 4 周限额单独周上限
  • 预计影响人群:< 5 % 的高强度用户。
  • Max 5× 档位:每周约 140–280 小时 Sonnet 4、15–35 小时 Opus 4。
  • 超额方案:可按 API 标准费率“续命”。

社区已出现“月卡代刷”“多人拼团”等灰色服务,严重违反 TOS。

Claude Code 用户量激增,官方状态页一个月内 7 次故障。

TechCrunch 指出,类似 Cursor、Replit 6 月已被迫改价;Anthropic此举是“补课”。


  • 基本无感:日常提问、改 Bug、生成脚本,周配额够用。
  • 长时间 Agent、大型单仓库 refactor、并行多实例——触顶概率高。
  • 备用方案:提前拆分任务,或切换本地 LLM/其他云模型兜底。

玩法旧收益新风险
拼团共享低成本薅 GPU周限额一来,人多更易触顶
倒卖算力高买低卖差价账号易被风控,信誉归零
24×7 Agent长时间刷积分/排行榜周限额锁死,收益骤降

VentureBeat 揭露:有用户在 $200 套餐跑出“数万美元”内核时长。

一句话:羊毛党不再有利可图。


  1. 监控用量:自建计量脚本,避免“周中锁号”。
  2. 优化提示:压缩上下文,采用流式链式思考,减少无效 token。
  3. 多模组合:常规任务用 Sonnet 4,高复杂度再启 Opus 4。
  4. 私有化备份:部署轻量模型(如 DeepSeek Coder、Phi3 mini)在本地应急。

  • 定价趋严:OpenAI 曾在 6 月调降 GPT-4 mini 限额;BigCode 平台也陆续设周封顶。
  • 资源竞赛:AI 公司疯狂追加数据中心 CAPEX,以平衡日益膨胀的推理成本。

Anthropic 此举,表面针对“羊毛党”,本质是在算力稀缺时代做一次资源再分配:让 95 % 正常用户享受稳定体验,让超高频玩家为占用付费。你会因此降低对 Claude Code 的依赖吗?欢迎在评论区聊聊你的看法!

互动

  • 你一周大概用 Claude 多久?
  • 如果触顶,你会转向哪款工具?

Claude Code 账号共享利器:Claude Relay Service 部署指南

介绍如何通过 claude-relay-service 实现团队共享 Claude 账号,并重点展示 docker-compose 的部署方法

当你的团队想一起使用 Anthropic 的 Claude AI,却苦于账号无法多人共享、或因地区限制而无法直接访问Claude时,该怎么办?小李和小王就遇到了这样的难题:他们合伙开通了价值不菲的 Claude 高级账号,但如何安全高效地让大家共同使用却让人犯愁。更糟的是,市面上一些第三方Claude镜像服务常常不稳定、甚至存在隐私风险。所幸,开源项目 Claude Relay Service 横空出世,让团队自建Claude中转服务成为可能!它支持将多人的Claude账号集中在一处,由团队成员共同使用,并通过OpenAI兼容接口方便地接入各种应用。本文将深入介绍这个项目的核心特点和使用方法,带你一步步搭建属于自己的Claude中转站,实现团队高效共享Claude账号的愿望。相信阅读完本文,你会发现:原来和小伙伴们拼车Claude,就像合租一台“AI超跑”,既省钱又放心!🚗💨

Claude Relay Service 能够充当你自己部署的Claude “中转服务器”,它像一个管家,替你管理多个Claude账户,并提供统一的API接口供团队调用。以下是它的几项核心能力:

  • 团队账号池 & 多账户轮询:支持添加多个Claude账号组成账号池,服务会自动轮换使用它们处理请求。这意味着如果一个账号达到使用上限或出现问题,系统会智能切换到下一个账号,保证服务不断档。团队合租Claude账号时,每个人的请求将被均匀分配到不同账号上处理,大幅降低了单账号被封禁的风险。

  • OpenAI API接口兼容:Claude Relay Service 同时提供Claude原生接口OpenAI兼容接口。也就是说,你可以用OpenAI API的格式来调用Claude!例如,将第三方应用的API端点指向 http://<你的服务器>:3000/openai/claude/v1/,就能像调用OpenAI一样使用Claude模型 。这一特性让已有的各种AI工具无缝对接Claude成为可能,再也不用费力修改代码适配新接口。

  • 自定义API密钥:为了方便团队内部管理,管理员可以为每个用户生成独立的API Key。每位成员用各自的Key访问Claude Relay Service,中转服务会统计每个Key用了多少请求和Token。管理员可以设置访问权限和速率限制,例如每分钟请求次数上限、每月最大Token用量,甚至限定哪些模型可用等。通过这种方式,团队共享Claude账号的同时也能做到各用各的、不抢道,清晰掌握每个人的使用情况。

  • OAuth快捷添加账号:添加Claude账号进入账号池非常简单。Claude Relay Service 集成了Anthropic的OAuth授权流程:管理员在Web界面点击“添加账户”,生成授权链接,然后登录Claude账号授权即可将该账号接入服务。整个过程无需手动输入密码,安全又便捷。需要注意的是,如果服务器在国内,完成OAuth授权可能需要科学上网配合。有了OAuth集成功能,哪怕团队里不断有新人加入或更换Claude账号,管理员都能几分钟内完成配置,无缝衔接。

以上这些功能组合在一起,就打造出了一个安全高效、灵活可控的Claude共享平台。对于无法直接访问Claude官方服务、又希望和朋友拼车Claude订阅的小团队而言,这无疑是个福音!Claude Relay Service让你们远离第三方镜像的不稳定,自己掌控数据和成本。正如官方README所说:数据安全、性能可控、成本透明 – 自建服务的好处一目了然。

Claude Relay Service 提供了多种部署方式,其中Docker Compose 部署无疑是最简单高效的选择之一。下面我们以Docker Compose为例,从零开始搭建你的Claude中转服务。

1. 环境准备:确保服务器已安装好 Docker 和 docker-compose 工具。由于使用Docker容器,基本不挑操作系统,只要能跑Docker即可。官方推荐使用国外云服务器(美国节点)以直接访问Anthropic的Claude服务。部署前,你需要注册至少一个Claude账号并订阅相应套餐(团队共享通常选择Claude Pro或Max套餐,大家平摊费用)。此外,准备两个安全密钥:JWT_SECRETENCRYPTION_KEY,分别用于签发JWT和加密敏感数据,必须是随机字符串且加足长度(32字符以上)。

2. 获取项目镜像:项目提供了预构建的Docker镜像,直接拉取即可使用:

Terminal window
docker pull weishaw/claude-relay-service:latest

镜像支持 AMD64 和 ARM64 架构,拉取完成后,我们就可以通过Docker Compose来运行它。

3. 编写配置:在部署目录中新建一个 .env 文件,写入我们准备好的环境变量:

Terminal window
# .env 文件内容示例
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:预设管理员账号(不设则随机生成)
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

以上,JWT_SECRETENCRYPTION_KEY是必填项,请务必替换为你自己的随机密钥。ADMIN_USERNAMEADMIN_PASSWORD可选填;若不设置,系统首次启动会自动生成默认的管理员账户和密码并存储在挂载的数据卷中供查阅。

接着,创建 docker-compose.yml 配置文件,内容如下:

version: '3.8'
services:
claude-relay:
image: weishaw/claude-relay-service:latest
container_name: claude-relay-service
restart: unless-stopped
ports:
- "3000:3000"
environment:
- JWT_SECRET=${JWT_SECRET}
- ENCRYPTION_KEY=${ENCRYPTION_KEY}
- REDIS_HOST=redis
- ADMIN_USERNAME=${ADMIN_USERNAME:-}
- ADMIN_PASSWORD=${ADMIN_PASSWORD:-}
volumes:
- ./logs:/app/logs
- ./data:/app/data
depends_on:
- redis
redis:
image: redis:7-alpine
container_name: claude-relay-redis
restart: unless-stopped
volumes:
- redis_data:/data
volumes:
redis_data:

上面的Compose文件定义了两个服务:claude-relayredis。让我们逐项解释每个字段的含义:

  • 镜像与容器claude-relay服务使用了我们拉取的官方镜像 weishaw/claude-relay-service:latest,并命名容器为claude-relay-service,方便识别。redis服务使用官方的 redis:7-alpine 轻量镜像作为后端数据库。两个服务均设置了restart: unless-stopped,确保容器异常退出时能自动重启,保证高可用。

  • 网络端口ports 将容器内部的3000端口映射到主机的3000端口,即服务启动后可通过 http://<服务器IP>:3000 访问Claude Relay Service的接口和Web管理界面。

  • 环境变量environment 列出了Claude Relay Service所需的环境变量。其中 ${JWT_SECRET}${ENCRYPTION_KEY} 会从我们刚才的 .env 文件中读取对应的值。REDIS_HOST=redis 指定服务应连接名为redis的容器作为数据库。ADMIN_USERNAMEADMIN_PASSWORD使用了${VAR:-}语法,表示如果.env中提供了这些变量就用提供的值,否则留空让系统自动创建管理员账号。通过环境变量集中配置,所有敏感信息不硬编码在镜像内,修改配置也非常方便。

  • 数据卷挂载:Claude Relay Service会将日志和数据分别写入容器内的/app/logs/app/data目录。我们通过volumes将宿主机的./logs./data目录挂载到容器对应路径,实现日志和数据持久化。这样即使容器重启或升级,之前的对话内容、账号配置等数据也不会丢失。

  • 服务依赖depends_on: - redis 表示Claude Relay服务在启动时需要等待Redis服务就绪。这确保了应用在启动时能成功连接到数据库。不用担心启动顺序的问题。

  • 命名卷:底部的volumes: redis_data:定义了一个持久化卷用于存储Redis的数据文件。Redis容器将其挂载到/data路径下。如此一来,Redis的数据也能在容器之间共享/持久。

配置文件准备就绪后,可以看到它已经涵盖了管理员账号初始化、数据持久化、内置Redis、健康重启等方方面面。Docker Compose 帮我们把这些部署杂事一网打尽,省心又省力。

4. 启动服务:在包含上述文件的目录下,执行:

Terminal window
docker-compose up -d

Docker会拉取Redis镜像并启动两个容器。第一次启动时,Claude Relay Service会自动初始化管理员账号和密码。如果之前我们没有在.env中预设管理员凭据,可以通过查看日志或文件获取默认账号:

Terminal window
docker logs claude-relay-service # 从容器日志中查找初始管理员账号
# 或查看挂载的数据文件
cat ./data/init.json

日志或文件中会显示管理员用户名(一般默认为cr_admin)和随机生成的密码。拿到管理员账号后,我们在浏览器访问 http://<服务器IP>:3000/web 打开Web管理界面。输入管理员账户登录,即可开始配置我们的Claude Relay Service啦!

5. 添加Claude账号:登陆管理后台后,首先要将Claude官方账号接入系统。在“Claude账户”标签页点击“添加账户”,然后点击“生成授权链接”。系统会跳转到Anthropic的官网OAuth页面,提示你登录并授权。使用需要共享的Claude账号完成授权后,会返回一个授权码,将其粘贴回Claude Relay Service的添加账户页面,即可成功绑定账号。整个过程类似于用第三方应用登录Google,安全方便。小提示:如果服务器在国内,执行这步可能需要VPN配合,否则无法打开Anthropic授权页面。

6. 分发API Key:账号池准备就绪后,就可以为团队成员创建各自的API Key了。在管理后台进入“API Keys”页签,点击“创建新Key”,为其命名(例如“张三的Key”),然后生成。你也可以在创建时设置该Key的权限和配额,如每分钟最大请求数、并发数、可用模型、绑定客户端等。保存后系统会生成一串随机API密钥。今后团队成员只需使用这个密钥调用Claude Relay Service提供的API接口,就会由中转服务代他们向Claude提问了。

完成以上步骤后,一个功能完备的Claude团队共享中转服务就部署成功!整个流程下来是不是相当简洁?借助Docker Compose,我们几乎不用手动配置复杂环境,一条命令拉起所有服务。官方也贴心地在Compose模板中考虑到了自动初始化和数据持久化,开箱即用。

要让Claude Relay Service在团队协作中发挥最大效用,这里有一些经验之谈与大家分享:

  • 合理规划账号池:尽量使用多几个Claude账号来构建账号池,并确保它们套餐相同(例如都订阅Claude Pro/Max),这样轮询时不会因为单个账号性能不足而拖后腿。账号数量可以根据团队规模和请求频率调整,人越多账号越多更稳定。不用担心账号闲置,正所谓“多个Claude账号走镖,不怕封号扰”——哪怕个别账号被风控暂停,后备账号也能顶上,服务不中断。

  • 充分利用使用统计:管理员应定期查看Claude Relay后台的使用统计功能,了解每个API Key的请求量和Token消耗。这有助于团队内部透明化账目:大家平摊Claude订阅费时,心里都有本“明白账”。如果发现某段时间请求量异常增高,可以及时沟通或调整速率限制,避免某个人“独占”资源影响他人。

  • 设置访问控制:Claude Relay Service支持为每个API Key设置丰富的使用限制。善用这些功能,例如限制单用户每分钟请求不超过N次,或者仅允许特定客户端/应用使用,能够防止误用滥用。特别是在开放给更多人使用或集成到第三方应用时,务必配置好速率限制和并发控制,既保护后端Claude账号不被过载,也防止团队内部因资源抢占产生矛盾。

  • 关注网络和延迟:建议将服务部署在能快速访问Claude服务器的地区(如北美地区)。如果你的团队主要在国内使用,可以考虑选择对国内用户友好的中转线路。例如部署在美国但走优化过的回国网络,减少API调用过程中的延迟。根据实践,部分国内云厂商的海外机器可能会被Claude的Cloudflare防火墙拦截,要多加留意官方频道公告或社区反馈。

  • 保持更新:该项目十分活跃,功能在不断改进(例如近期新增了Claude-1.2模型支持等等)。建议定期关注项目的GitHub主页或Telegram公告频道。Docker用户可以通过定期docker pull获取最新镜像,然后重启服务升级。保持版本最新,可以享受更稳定的性能和最新的功能特性。

最后提醒一句:使用Claude Relay Service相当于非官方方式调用Claude,请务必遵守Anthropic的服务条款,避免滥用造成账号风险。自建服务给了我们更大自由,也意味着需要自行对安全合规负责。在团队内部制定好使用规范,才能长长久久地“开开心心用Claude”~

通过 Claude Relay Service,我们再也不用为团队共享Claude账号而绞尽脑汁了。无论你是因为地区限制无法直连Claude,还是想和小伙伴拼车昂贵的Claude Max套餐,这个开源项目都提供了一个灵活可靠、安全私有的解决方案。我们详细讲解了它的核心功能:多账户池、OpenAI接口兼容、自定义API密钥、OAuth添加账户等,让你清楚它如何满足团队协作需求。同时,我们一步步演示了Docker Compose部署,从配置环境变量到启动服务,相信即使不是DevOps高手的读者也能跟随操作,快速搭建起自己的Claude中转站。

可以想见,有了Claude Relay Service,加班写代码时再也不怕Claude账号额度见底,同事们也不必各自开账户重复花钱。大家共享一个“Claude大水池”,各取所需又明明白白,真正做到省钱又省心!🤝

Claude Code 的「思考档位」:think, think hard, think harder 和 ultrathink

think 用得好,是助你飞跃瓶颈的秘密武器;用得不好,Claude 就跟“没带脑子”一样干活。


你让 Claude 帮你分析个问题,结果它三句话就甩了个答案给你。

看起来“有模有样”,但一落地就出锅,漏洞百出。

很多人以为是 Claude 不行,其实真相是:你没有让它「好好思考」!


Claude 的隐藏技能:思考档位调节器

Section titled “Claude 的隐藏技能:思考档位调节器”

Claude Code 其实内置了一个「思考加速器」工具(叫 Think Tool),只不过你得自己触发。

档位关键词思考 Token 上限思考深度
NONE不加任何关键词0 Tokens快速执行,几乎不思考
BASICthink / 想4K Tokens初级思考,快速粗略规划
MIDDLEthink hard / 好好想10K Tokens中度思考,适合复杂任务
HIGHESTultrathink / 仔细思考32K Tokens最深层思考,适合攻坚战

这不是玄学,而是写在 Claude Code 工程代码里的真实设定

加了关键词,它就真会多想一会儿!


别担心 Claude 看不懂中文,它的触发逻辑也支持我们母语:

  • HIGHEST(32K):仔细思考、深思、多想一会
  • MIDDLE(10K):好好想、多想想
  • BASIC(4K):思考、想

比如你说「这个问题你仔细思考后再给我计划」——Claude 马上切换到最高档,分配最多思考时间!


当然可以,下面是每种思考档位的典型使用场景示例,简洁清晰,方便直接套用 👇


🧠 ultrathink 示例:拆分复杂产品功能

Section titled “🧠 ultrathink 示例:拆分复杂产品功能”

Prompt: 我想开发一个“智能日报助手”,可以自动从 Slack、Notion、GitHub 汇总今天的重点事件,帮我生成日报草稿。这个问题你先**仔细思考(ultrathink)**一下,输出一份模块划分、数据流和API接口设计。

📌 适用场景:多系统集成、需求模糊、需深度思考架构


🧠 think hard 示例:评估多个技术方案

Section titled “🧠 think hard 示例:评估多个技术方案”

Prompt: 我想为一个多人协作文档应用选择数据库方案,你**好好想(think hard)**一下,是选 PostgreSQL + Redis,还是 MongoDB + Kafka,输出比较分析并给出推荐理由。

📌 适用场景:多个路线可选、需要对比分析


🧠 think 示例:小任务做一下逻辑规划

Section titled “🧠 think 示例:小任务做一下逻辑规划”

Prompt: 我准备写一个脚本,把一个 Markdown 文件里的图片链接全部下载下来并重命名。你先**想一想(think)**该怎么做,用 Python 哪些库比较合适,再给我写代码。

📌 适用场景:任务不复杂,先简单过一遍思路


Prompt: 我已经写好了这个 AI 摘要工具的使用说明,请你把下面这段文字格式优化为 README.md 文件,直接输出结果,不需要多想。

📌 适用场景:需求清晰,只需要执行,无需思考计划


🚀建议用法套路:「Explore, Plan, Code, Commit」

Section titled “🚀建议用法套路:「Explore, Plan, Code, Commit」”

Claude Code 官方推荐了一个 4 步法工作流:

  1. Explore:先让 Claude 读文件,但不写代码
  2. Plan:用 ultrathink 制定详细计划(核心)
  3. Code:基于计划写代码,并自检合理性
  4. Commit:生成 Pull Request 和 changelog

📌 重点来了#2 Plan 步骤一定要加关键词触发「思考档位」,否则很可能跳过深度思考直接开始干活!


🧠不是 Claude 不聪明,而是你没让它动脑

Section titled “🧠不是 Claude 不聪明,而是你没让它动脑”

Claude 的能力很强,但如果你不给它「思考空间」,它就只能草率应付。

用好 think、think hard、think harder、ultrathink,不但能提升输出质量,还能让复杂问题一步到位解决。

你觉得这个设计聪明吗? 你有没有踩过“Claude没想清楚就开干”的坑? 欢迎在评论区分享你的经验👇

给 Claude Code 换 OpenAI 协议兼容模型:claude-code-proxy 上手指南

claude-code-proxy 把 Claude Code 的「Anthropic 协议」一键翻译成 OpenAI 兼容的接口,让你在本地或云端自由切换 GPT-4o、Gemini 甚至 Ollama 等模型,无需改任何代码,成本立省,还能享受流畅的函数调用与流式输出。


  • Claude Code CLI 默认只认 Anthropic 官方服务器,贵,还经常限流;自建代理可绕过这一限制。
  • 市面已有各种「转译」脚本,但大都不支持函数调用模型智能映射,上手门槛高。

完整支持 /v1/messages,连图片 Base64 输入都能转译。

内置 OpenAI、Azure OpenAI、Ollama 等适配器,也能接任何 OpenAI-compatible 服务。

  • haiku → SMALL_MODEL
  • sonnet → MIDDLE_MODEL
  • opus → BIG_MODEL 一行环境变量就能换模型,无需手改代码。

让 Claude Code 在新模型上依旧能「写代码、调 API、边打一边看」。

超时、令牌溢出都会被优雅捕获并返回人类可读信息。


下文所有命令均在 macOS/Linux 终端执行

Terminal window
# 推荐超快的 uv
uv sync
# 或者老派 pip
pip install -r requirements.txt
Terminal window
cp .env.example .env
# 编辑 .env,填入 OPENAI_API_KEY 等

必填:OPENAI_API_KEY 可选安全项:ANTHROPIC_API_KEY(开启后需匹配才可访问)。

Terminal window
python start_proxy.py
# 或 uv run claude-code-proxy

默认监听 0.0.0.0:8082,日志级别 WARNING

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8082
export ANTHROPIC_API_KEY=any-value # 若代理端未设限,可随意写
claude # 开始愉快 Vibe Coding

只要改 .env

Terminal window
# 用 Azure
OPENAI_BASE_URL="https://your-azure-endpoint"
BIG_MODEL="gpt-4"
# 用本地 Llama3
OPENAI_BASE_URL="http://localhost:11434/v1"
BIG_MODEL="llama3.1:70b"

无需重启 Claude Code。

Claude 官方文档同样支持标准 HTTP(S)_PROXY 环境变量,可与 claude-code-proxy 叠加使用。

.envdocker-compose.yml 推到私有仓库即可在 CI 环境批量部署。


  1. 401 错误:确认前后端 ANTHROPIC_API_KEY 一致,或干脆删掉让代理「无门槛」。
  2. 模型名不识别:检查是否包含 haiku/sonnet/opus 关键词;否则手动设置 BIG_MODEL 等映射。
  3. 延迟高:本地 Ollama 建议开启 GPU 加速;云端可用 uvicorn --workers 4 提升并发。

有了 claude-code-proxy,你可以把 Claude Code 变成一把「万金油」—— 前端写 Vue,后端跑 Gemini,文档用 GPT-4o,全部一个 CLI 端口搞定。赶紧试试,把服务器跑起来,再留言告诉我你的体验!你觉得哪种模型映射组合最好用?


Claude Code 实践: 生成和维护接口文档 PDF 版本

日常工作中合同、协议、BLE 通讯规范……公司里总少不了一堆 PDF。 看着精美,改起来要人命:复制粘贴乱了套,排版全跑偏。 这篇文章分享一个“逆转 PDF → Markdown → PDF”的实战流程,用 Claude Code 三步搞定,还能顺带保留可编辑的 Word 版本。


  • 只剩 PDF,Word 丢了 → 无法维护
  • 合作伙伴只收 PDF → 格式必须统一
  • 想加新接口 / 表格 → 需要可文本编辑的格式

Claude Code 正好填补了这个坑。


PDF → Markdown(可编辑) → 更新 → PDF/Word 核心就是借助 Claude Code 的多模态解析与格式化能力。


目标:保留标题、表格、图片引用,一键转成干净的 .md

推荐提示词

请将下面这份 PDF 全面解析为 Markdown:
1. 保留所有标题层级 (#-###)
2. 表格按 Markdown 语法显示
3. 图片用 `![alt](placeholder)` 占位
4. 页脚、页码忽略
返回完整 Markdown 文本

Claude Code 会自动识别 PDF 中的结构,生成清晰的 Markdown 文档。

# CGM BLE 通讯协议 v2.1
## 1. 数据帧结构
| 字段 | 长度(Byte) | 描述 |
|-------------|-----------|-------------------|
| Frame Head | 2 | 固定 0x55AA |
| Length | 1 | 后续字节长度 |
| Cmd | 1 | 功能码 |
| Payload | N | 业务数据 |
| CRC16 | 2 | 低字节在前 |
![帧结构示意](fig/frame.svg)
> **注**:所有多字节字段均为 Little-Endian。

目标:补充最新接口、修正描述,让文档重新鲜活。

自动分析代码

请审查这段 Markdown,找出所有接口代码块:
- 检查参数命名是否一致
- 标注潜在错误并给出改进建议

Claude Code 会自动分析 Markdown 中的代码块,找出潜在问题并给出改进建议。

发现 2 处潜在问题:
1. “Cmd=0x07 上传血糖” 与接口清单中描述不一致(清单写 0x08)
2. “CRC16 校验算法” 未说明多项式,可参考 ITU-T X.25
改进建议:
- 更新接口清单或修正文档
- 在 <2.3 CRC 计算> 一节补充多项式 0x1021

或者手动补充细节

### /device/sync
| 字段 | 类型 | 必填 | 说明 |
|---------|------|------|---------------------|
| uid | str | Y | 设备唯一标识 |
| ts | int | Y | Unix 时间戳(秒) |
| glucose | int | Y | 当前血糖(mg/dL) |

目标:把更新后的文档再次输出为标准 PDF,递交合作伙伴。

推荐提示词

请将这份 Markdown 渲染为排版美观的 PDF:
- 使用 A4 页面
- 标题自动生成目录
- 表格水平居中

Claude Code 会生成一个格式统一 PDF 文档。


公司需要 Word 版本?用单页 HTML 曲线救国!

Markdown ➜ 单文件 HTML

将下列 Markdown 转成自包含(内联 CSS)的单文件 HTML,
方便 Word 打开无依赖。

Claude Code 会生成一个包含所有样式的 HTML 文件。

<!DOCTYPE html><html><head>
<meta charset="utf-8">
<style>
body{font-family:"Microsoft YaHei";}
h1,h2{margin:1em 0;}
table{border-collapse:collapse;width:100%;}
td,th{border:1px solid #ccc;padding:6px;text-align:center;}
</style>
</head><body>
<h1>CGM BLE 通讯协议 v2.2</h1>
<h2>1. 数据帧结构</h2>
<table>
<tr><th>字段</th><th>长度(Byte)</th><th>描述</th></tr>
<tr><td>Frame Head</td><td>2</td><td>固定 0x55AA</td></tr>
...
</table>
</body></html>

然后:

  1. Word 打开 HTML → 另存为 DOCX/PDF
  2. 得到可本地编辑的 Word + 最终 PDF,一鱼两吃。

通过 Claude Code 把失控的 PDF 拉回可编辑世界,再无痛输出标准 PDF/Word,一次解决“格式统一”与“内容可维护”两大痛点。

你手里还有哪些顽固的 PDF 想复活? 留言聊聊,说不定下一篇就写你的场景!

Claude Code Specs Generator:让 Claude Code 像 Kiro 那样先看文档再写代码

不想再被“vibe-coding”带跑偏?

这款开源小工具 Claude Code Specs Generator 给 Claude Code 配上了一套“说明书生成器”——自动产出 6 份核心文档,把业务、技术、架构、任务写得明明白白,让 Claude 先看说明书、再动手敲代码。


  • AI ≠ 读心术 当上下文混乱,Claude 常常“自作主张”重写依赖或重复造轮子。Amazon Kiro IDE 用“Spec-Driven Development”解决了同样的痛点,实践证明:先生成规格,再生成代码,错误率大幅下降。

  • 团队协作节省 30% 沟通成本 统一的 product.md、tech.md、structure.md 让新人 10 分钟完成代码导览,减少口头交接。

  • Claude 推理更准 把这 6 份文档写进 CLAUDE.md,AI 每次响应都会加载它们,避免“记忆断片”。


分类具体文件作用
Steeringproduct.md / tech.md / structure.md业务目标、技术栈、目录规范
Specsdesign.md / requirements.md / tasks.md架构设计、用户故事、开发任务

系统分析你的仓库 & 文档,一键 /specs-create 全自动产出。

  • /specs-create 首建规格
  • /specs-init 刷新上下文(自动 /clear → /init)
  • /refresh-specs 根据最近 git 提交增量更新

Specs 写完后,生成器把文件路径写进 CLAUDE.md,下一次你在终端输入 @claude fix tests,Claude 就会参考最新规格执行。


  • 新项目零到一 拉个空仓库,跑 /specs-create,立刻得到“产品-技术-结构”三份方向文档,再迭代设计、任务。
  • 老项目治理 代码写多了想补文档?同样一键。生成器会扫描现有 PRD/TODO 文件并合并内容。
  • 持续交付 每发一个 PR 就触发 /refresh-specs CI 脚本,让规格跟着代码一起演进。

  1. 安装

    Terminal window
    npx @kellemar/claude-code-specs-generator
    • 不需要全局安装,执行完毕即在当前项目写入 .claude/specs/ 目录。
  2. 一键生成规格

    Terminal window
    /specs-create

    解析代码、旧文档,自动产出 6 份 Markdown 并更新 CLAUDE.md

  3. 加载上下文

    Terminal window
    /specs-init

    实质是 /clear → /init 组合,让 Claude 每轮都带着最新 Specs。

设置完成后,您的项目将包括:

your-project/
├── .claude/
│ └── steering/
│ ├── product.md # Product vision and business goals
│ ├── tech.md # Technology stack and constraints
│ └── structure.md # Code organization patterns
├── specs/
│ ├── design.md # Technical architecture
│ ├── requirements.md # User stories and acceptance criteria
│ └── tasks.md # Current development tasks
└── CLAUDE.md # Updated with document references

Specs Generator = “Kiro 味”的免费插件 无需跳槽到新 IDE,也能在现有 Claude Code 工作流里享受规格驱动的安全感。现在就试试 /npx @kellemar/claude-code-specs-generator,让 AI 和人类都少走弯路!


🤔 你会把它加进自己的项目吗? 留言聊聊,你最想自动化哪一步!

(下一篇我们将拆解如何把 Specs 写成 Mermaid 图,记得关注!)

Claude Code + Kimi K2:一行搞定国内终端级 AI 编程

本文带你用 一行环境变量,把终端里的 Claude Code 换上月之暗面的 Kimi K2 ——便宜、快,又不用“翻山越岭”。下面先给出快速结论,随后分步骤详解,照着抄即可。


  • Claude Code 的 Agent 工作流爽点满满,但默认只能连 Anthropic 官方模型,费用和网络都伤不起。
  • Kimi K2 公开提供 Anthropic‑兼容 API,1 k tokens 0.02 元起,比官方便宜一个数量级;长上下文、代码能力也在线。
  • 只要提前申请 Moonshot API Key,并把 ANTHROPIC_AUTH_TOKENANTHROPIC_BASE_URL 填好,Claude Code 就会把 K2 当成 “正版 Claude” 使用,无需改源码或代理。

必备软件最低版本
Node.js18+
npm8+
Git2.20+

在终端里 node -v 验证即可,低于 18 请升级到 LTS 版。

然后全局装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code
claude --version # 能看到版本号就 OK

  1. 访问 Moonshot 控制台 https://platform.moonshot.cn/console/api-keys,创建新 Key(前缀 sk-)。

  1. 复制并妥善保存,之后无法再次查看。

Terminal window
export ANTHROPIC_AUTH_TOKEN=sk-你的Key
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude # 现在所有请求已走 Kimi K2
Terminal window
set ANTHROPIC_AUTH_TOKEN=sk-你的Key
set ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude

TIP:想永久生效,把两条 export/set 写进 ~/.bashrc~/.zshrc 或「系统环境变量」里。


打开新终端运行 claude,提问:

/status

若看到 Anthropic Base URL: https://api.moonshot.cn/anthropic,说明已连上 K2。你也可以随手让它写段代码,速度和费用明显下降。

定期检查 Moonshot 控制台,查看 K2 的使用情况和费用。


症状处理方式
出错 “401 Unauthorized”确认 ANTHROPIC_AUTH_TOKEN 是否带 sk- 前缀且未过期。
提示需登录 Anthropic加一句 export ANTHROPIC_API_KEY=NOT_NEEDED 绕过检查。
想临时切回官方 Claudeunset ANTHROPIC_BASE_URL 即可;再设回来就重连 K2。
代理软件冲突若本机跑有代理脚本(如 kimi-cc),确保端口不占用,或改成上面官方直连方案。

  • Moonshot K2:输入 1 k tokens 0.02 元,输出 0.06 元;比官方 Claude Opus 便宜 ≥ 10 ×。
  • 实测写一个小型网页游戏总花费 ≈ 0.6 元,真·“1 块钱外包”。

把 “贵+网络” 的痛点,变成 “省钱+直连” 的爽点——只需两行环境变量,Claude Code 秒换 Kimi K2,终端立刻升级国产大模型引擎。

玩得开心,别忘了 claude 里敲一句 :set language zh,让 AI 也说中文;更多新姿势,评论区见!

Claude Code Templates:一键生成+实时监控你的 Claude Code 配置

claude-code-templates 是由开发者 Daniel Avila(davila7)打造的开源 CLI 工具,旨在帮助开发者快速配置和监控 Claude Code。它能一键生成项目配置、分析现有设置,并实时展示运行状态,非常适合搭配 Claude Code 使用 。


  • 支持 JavaScript/TS(含 React、Vue、Angular、Node.js)、Python(Django、Flask、FastAPI)、通用模板,其他语言如 Go、Rust 即将支持 。
  • 支持交互式启动,也可通过参数如 --language, --framework, --yes, --dry-run, --directory 等实现一键化配置 。
  • 安装命令为:npx claude-code-templates@latest,无需全局安装。也可一键安装为全局命令:npm install -g claude-code-templates
Terminal window
npx claude-code-templates@latest
██████╗██╗ █████╗ ██╗ ██╗██████╗ ███████╗
██╔════╝██║ ██╔══██╗██║ ██║██╔══██╗██╔════╝
██║ ██║ ███████║██║ ██║██║ ██║█████╗
██║ ██║ ██╔══██║██║ ██║██║ ██║██╔══╝
╚██████╗███████╗██║ ██║╚██████╔╝██████╔╝███████╗
╚═════╝╚══════╝╚═╝ ╚═╝ ╚═════╝ ╚═════╝ ╚══════╝
██████╗ ██████╗ ██████╗ ███████╗
██╔════╝██╔═══██╗██╔══██╗██╔════╝
██║ ██║ ██║██║ ██║█████╗
██║ ██║ ██║██║ ██║██╔══╝
╚██████╗╚██████╔╝██████╔╝███████╗
╚═════╝ ╚═════╝ ╚═════╝ ╚══════╝
████████╗███████╗███╗ ███╗██████╗ ██╗ █████╗ ████████╗███████╗███████╗
╚══██╔══╝██╔════╝████╗ ████║██╔══██╗██║ ██╔══██╗╚══██╔══╝██╔════╝██╔════╝
██║ █████╗ ██╔████╔██║██████╔╝██║ ███████║ ██║ █████╗ ███████╗
██║ ██╔══╝ ██║╚██╔╝██║██╔═══╝ ██║ ██╔══██║ ██║ ██╔══╝ ╚════██║
██║ ███████╗██║ ╚═╝ ██║██║ ███████╗██║ ██║ ██║ ███████╗███████║
╚═╝ ╚══════╝╚═╝ ╚═╝╚═╝ ╚══════╝╚═╝ ╚═╝ ╚═╝ ╚══════╝╚══════╝
🚀 Setup Claude Code for any project language 🚀
🚀 Welcome to Claude Code Templates!
? What would you like to do? (Use arrow keys)
📊 Analytics Dashboard - Monitor your Claude Code usage and sessions
🔍 Health Check - Verify your Claude Code setup and configuration
⚙️ Project Setup - Configure Claude Code for your project
  • 启动命令 --analytics,打开本地仪表盘(默认 http://localhost:3333),展示 Claude 会话数量、Token 使用量、会话历史、项目活动等。
  • 支持 CSV/JSON 导出,完全本地运行,无数据外泄 。
  • Reddit 上有人评论:“Real‑time monitoring … runs completely local (localhost:3333)… Token usage insights have been eye‑opening!” 。
  • 使用 --health-check 可以验证系统环境、Node.js 版本、网络连通性、Claude Code 配置、hooks、MCP 等,提供可视化检查结果与建议 。

可通过以下命令进行深入分析:

Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

命令会输出命令文件统计、hooks 启用状态、MCP 服务状况、AI 优化建议等 。

支持 dry-run 模式预览操作,自动备份已有配置,改动前弹窗确认,随时可取消。同时 --yes 可跳过询问自动执行 。


Terminal window
npm install -g claude-code-templates
npx claude-code-templates

进入目标项目路径,一步配置完成。

Terminal window
npx claude-code-templates \
--language javascript-typescript \
--framework react \
--yes

针对 Python + Django 可类似使用:--language python --framework django --yes

Terminal window
npx claude-code-templates --analytics
Terminal window
npx claude-code-templates --health-check
Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

  • 省时省力:原本需要手动配置的 .claude/CLAUDE.md、commands、MCP、hooks,现在几秒就搞定。
  • 实时可视化:Analytics Dashboard 对 session 监控和 token 使用一目了然。
  • 规范 + 安全:自动备份+dry-run+确认机制,保障项目配置安全。
  • 优化建议:命令分析和 hook/MCP stats 帮助你优化并形成最佳实践。

Reddit 用户纷纷点赞其 Dashboard 功能:

“Real‑time monitoring of all Claude Code sessions… Token usage charts and project activity breakdown… runs completely local” 。

社区也在热议新增功能请求,如支持 SwiftUI 项目模板等 。

另外,作者刚刚上线了在线模板预览页面,用户可通过网页浏览模板、复制安装命令,并贡献自己的模板到社区 。


claude-code-templates 是一句话:让 Claude Code“即用即配、可监控、可优化”。 适合追求高效开发流程、喜欢仪表盘视图以及重视配置安全的团队或个人。 接下来项目将支持更多语言/框架,如 Go、Rust,并开放在线社区提交模板入口,共建生态。


希望这篇文章能帮助你快速了解并上手 claude-code-templates,让你的 Claude Code 开发更加轻松、可视、专业。 打开终端,试试:

Terminal window
npx claude-code-templates --analytics

开始一段更智能的开发旅程吧 ✨

Sniffly:用仪表盘洞察你的 Claude Code 使用模式

一行命令,即刻把枯燥 Claude Code 的 jsonl 日志变成可视化洞察。


Sniffly 是由 Chip Huyen 开源的本地工具,专门解析 Claude Code 产生的 .jsonl 日志,并生成可交互的 Web 仪表盘,帮你快速回答三个问题:

你想知道…Sniffly 给到…
我到底用了 Claude Code 做了什么?Usage Stats:指令次数、文件操作、平均步数等
Claude Code 最常犯什么错?Error Breakdown:将错误按类型、占比可视化
某段对话为什么翻车?Message History:逐条重放完整上下文

全部计算都在本地完成,无需上传任何对话或代码,隐私友好。


环境要求:Python 3.10+

Terminal window
# ✅ 临时试用(无需安装)
uvx sniffly@latest init
# ✅ 全局安装
uv tool install sniffly@latest # 或 pip install sniffly
sniffly init # 首次扫描并启动服务

默认会在浏览器打开 http://localhost:8081 仪表盘,你也可以通过命令行改端口或关闭自动打开:

Terminal window
sniffly config set port 8090
sniffly config set auto_browser false

功能亮点
Usage Stats对指令数量、对话长度、平均步骤、最耗时指令等做柱状/折线图
Error Breakdown统计 FileNotFound, FuncNotFound, Timeout 等错误占比
Message History类似“录像带”回放,同步展示你的代码 diff
Sharable Dashboard一键生成私密 / 公开链接,把洞察分享给队友

Chip Huyen 在首发贴里给出自己的 两个惊喜发现

  1. “Content Not Found” 是最常见错误,占 20‑30% —— Claude Code 经常寻找不存在的文件/函数。
  2. 优化项目结构后,平均指令步骤从 8 步降到 7 步 —— 只改了可发现性,效率立竿见影。

同样,你也可以用 Sniffly 找到自己的“隐形效率黑洞”,然后做针对性改进。


目标命令 / 操作
切换要分析的项目目录sniffly init --project /path/to/project
限制内存占用sniffly config set cache_max_mb_per_project 200
分享只包含统计、不含指令文本Dashboard ▶︎ Share ▶︎ 勾选 Hide Commands
将日志 & Git 提交时间线对齐把 git repo 路径传给 sniffly init,时间线自动融合

如果你也在用 Claude Code 进行 Vibe Coding,却苦于:

  • 日志太散,难以聚焦问题
  • 错误类型众多,不知该先优化哪里
  • 想向团队展示 AI 编程 ROI,却缺少可视化证据

那就试试 Sniffly —— 一行命令,帮你把隐藏在日志里的价值“嗅”出来

开源地址、文档与 Demo:


动手吧! 让 Sniffly 成为你的 Claude Code“黑匣子”,从今天开始量化每一次 AI 编程的得与失。

Claude Code 国内平替:DeepSeek R1 + Kimi K2 一键上手指南

Claude Code Router(CCR)https://github.com/musistudio/claude-code-router 是一款为 Claude Code 用户量身打造的 “多模型分流器”:它在本地监听 Claude Code 的标准请求,然后按你的路由策略转发至 DeepSeek‑R1、Kimi K2 等任意 LLM,兼容 OpenAI‑style API,并可给不同模型加“变压器”做参数与响应的适配。本文先概览 CCR 的核心机制,再逐步演示如何把 DeepSeek R1Kimi K2 接入,一文在手即可上手“多模协同写码”。


  • CCR 通过 ~/.claude-code-router/config.json 描述 Provider → Model → Transformer → 路由规则,让 Claude Code 在 VS Code / 终端里像往常一样使用 /model 即可热切换后端模型。
  • 自带 DeepSeek、OpenRouter、Gemini、MaxToken 等可插拔 Transformer,可给单一模型再叠加多级转换。
  • 支持 CLI / GitHub Actions 双模式运行;结合 Action 可利用 DeepSeek 夜间 25 % 费率做“凌晨批处理”。
Terminal window
npm i -g @anthropic-ai/claude-code # 安装 Claude Code
npm i -g @musistudio/claude-code-router
ccr code # 用 CCR 启动 Claude Code

  1. 在 DeepSeek 平台 控制台申请 key,并记录 sk‑xxx
  2. 官方 API 为 https://api.deepseek.com/chat/completions,完全兼容 OpenAI SDK。
  3. R1 最新版本号 deepseek‑r1‑250528(VolcEngine 镜像提供 128 K 上下文)。
{
"Providers": [
{
"name": "volcengine",
"api_base_url": "https://ark.cn-beijing.volces.com/api/v3/chat/completions",
"api_key": "sk-你的key",
"models": ["deepseek-r1-250528"],
"transformer": { "use": ["deepseek"] }
}
],
"Router": {
"think": "volcengine,deepseek-r1-250528"
}
}
  • deepseek transformer 会自动把 max_tokens 上限限制为 8192 并兼容 R1 不支持 tool_choice 的特性。
  • 夜间(00 :30 – 08 :30 UTC+8)调用 R1 费用仅白天 25 % → 适合大批量测试/重构脚本。

在 Claude Code 中键入:

/model volcengine,deepseek-r1-250528

即可让下一次对话立即改用 DeepSeek R1,并继承 128 K 上下文窗口。


  • Moonshot AI 最新开源 MoE 模型,1 T 总参数 / 32 B 激活专家,擅长代码生成与 Agent 调用。
  • SiliconFlow 提供 16384 max_tokens 额度与高并发低延迟推理服务,适合长链路代码分析。
  • 进入 siliconflow.cn 控制台,开通 moonshotai/Kimi-K2-Instruct 并拿到 token。
  • 也可通过 OpenRouter 走统一兼容端点 https://openrouter.ai/api/v1/chat/completions
{
"Providers": [
{
"name": "siliconflow",
"api_base_url": "https://api.siliconflow.cn/v1/chat/completions",
"api_key": "sk-你的token",
"models": ["moonshotai/Kimi-K2-Instruct"],
"transformer": {
"use": [
["maxtoken", { "max_tokens": 16384 }]
]
}
}
],
"Router": {
"longContext": "siliconflow,moonshotai/Kimi-K2-Instruct"
}
}
  • maxtoken transformer 防止 CCR 误把 max_tokens 撑破 SiliconFlow 的 16 K 限制。
  • 如果你希望在同一次会话里把 32 K + 的项目文档全部喂给 K2,可先 /model siliconflow,moonshotai/Kimi-K2-Instruct,再贴全文。

SiliconFlow 官方 cURL 样例仅需替换为 CCR 的本地端口即可;CCR 会负责转发与字段兼容。


场景路由键建议模型
文件批量重构thinkDeepSeek‑R1(低价+推理链输出)
超长项目 ReadMe 总结longContextKimi‑K2(16 K 上下文)
夜间离线 CIGitHub Actions + CCRDeepSeek‑R1(夜间 25 % 费率)
本地推理/离线背景任务backgroundqwen‑coder‑2.5@Ollama(0 成本)

CCR 的 /model provider,model 命令支持随时热切换;也可以在 Router 里给不同任务通道预设默认模型,实现“写代码用 R1,读长文用 K2”的流水线。


  1. 响应慢? DeepSeek 官方端点推理阶段较慢,若在 VS Code 中等待超时可开 UltraThink 预算或换 VolcEngine 镜像。
  2. Context 溢出? DeepSeek API 默认 64 K,上面示例用 VolcEngine 扩充到 128 K;Kimi K2 为 16 K,需要 maxtoken 保护。
  3. 模型名打错? CCR 的 /model 格式一定是 provider,model,不要遗漏逗号。
  4. 工具调用失效? R1 目前不支持 tool_choice,若要函数调用可退回 DeepSeek V3,或在 CCR 给 V3 加 tooluse transformer。

凭借 Claude Code Router + DeepSeek R1 + Kimi K2,你可以在同一 IDE 内一键切换「推理力」与「长文上下文」两大特长:白天用 K2 写长文报告,夜里切 R1 做批量代码迁移,成本不到官方 Claude Max 的十分之一。立刻安装 CCR,解锁你的多模写码新姿势吧!

Claude Code 开发神器:`claude-trace` 全记录工具,让你的调试透明可见

在使用 Claude Code 写代码时,你是否也好奇:

  • Claude 是怎么理解你的指令的?
  • 系统提示(system prompt)到底写了啥?
  • Claude 用了什么工具?返回了哪些原始数据?
  • API 背后发生了什么?模型用了多少 token?

现在,有了开源工具 claude-trace,这些“幕后”细节你都能一览无遗!


只需一条命令即可安装:

Terminal window
npm install -g @mariozechner/claude-trace

启动 Claude Code 并记录全过程:

Terminal window
claude-trace

支持更多选项:

功能命令
启动 Claude + 日志记录claude-trace
包含所有请求(默认仅记录有效对话)claude-trace --include-all-requests
使用特定参数运行 Claudeclaude-trace --run-with chat --model sonnet-3.5
提取 OAuth tokenclaude-trace --extract-token
生成 HTML 会话报告claude-trace --generate-html logs.jsonl report.html
自动生成索引 + 总结claude-trace --index

使用 claude-trace,你可以在生成的 HTML 页面中看到:

  • ✅ Claude 的 system prompt(隐藏指令)
  • ✅ 所有 API 请求与响应原始数据
  • 工具定义与输出(如搜索/文件读取)
  • ✅ Claude 的“思考过程”块
  • ✅ Token 使用统计(含缓存命中情况)
  • ✅ 可交互 HTML 视图 + 搜索索引
  • ✅ JSONL 原始日志(保存在 .claude-trace/ 文件夹)

每次运行将生成自包含的 HTML 文件,无需服务器即可本地浏览,非常适合团队回顾、调试与归档。


📊 会话总结与索引功能(AI 加持)

Section titled “📊 会话总结与索引功能(AI 加持)”

通过 claude-trace --index 命令,你还能自动生成:

  • 所有日志的 AI 总结标题和概要
  • 带索引的 index.html 文件
  • 可点击跳转的历史会话列表

让你像管理 Notion 一样管理 Claude 的所有对话记录!


如果你符合以下标签,那么你会爱上它:

  • 💡 Claude Code 的深度用户或插件开发者
  • 🧪 需要调试 Claude 工具链、系统指令或日志结构
  • 📁 希望归档所有 Claude 编程会话
  • 🧠 想了解 Claude 背后真实的“思考”过程
  • ⚙️ 需要构建自动化测试或生成会话回顾报告

项目地址:https://github.com/mariozechner/claude-trace


总结一下:

claude-trace 是 Claude Code 用户不可错过的一款调试神器,它让你看清 AI 背后的“黑盒”,无论是开发插件、分析模型响应,还是构建 Claude 工程日志系统,都能带来极大便利。

如果你正在用 Claude 开发项目,不妨试试看,一键开启你的「Claude 可视化开发之旅」!

Vibe Kanban 工具实战:一键管理 Claude、Gemini、Amp 任务

Coding Agent(如 Claude Code、Gemini CLI、Amp 等)在工程开发中的作用愈发重要。团队发现现在花在规划、审查、协调这些人类工作上的时间,已经超过了写代码本身

Vibe Kanban https://github.com/BloopAI/vibe-kanban,正是一款专注解决这类协作流程问题的新工具。它通过 Kanban 板界面,让你可以:

  • 快速切换编码 Agent(Claude、Gemini、Amp 等);
  • 并行或串行调用多个 Agent,自动执行任务;
  • 以可视化方式查看 task 状态、代码审查、Dev Server 快速启动;
  • 集中管理 Agent 的 MPC 配置,提升整体协作效率;
  • 未来还能通过 MCP 服务器让 coding agent 自动创建 task ticket。

Vibe Kanban 的设计理念是:当大部分代码由 AI 写,我们人类的角色就是规划、审查、协调。这不仅是趋势,也是一种全新的开发工作方式。


  1. 提前配置好 Agent 比如安装并登录 Claude Code、Gemini CLI、Amp 等。

  2. 运行命令启动 Vibe Kanban

    Terminal window
    npx vibe-kanban

    自动寻找本地端口并打开浏览器(如http://127.0.0.1:53046),进入 Kanban 工作区。

  3. 配置 Agent 首次需在 Settings 中添加 Agent MCP(例如 Claude、Gemini、Amp 的 token/path),后续可在 UI 中自由切换 Agent 执行任务。

  4. 创建项目 在 Kanban 界面创建新项目,添加 Task(任务),即可开始使用。


切换到相应 Agent 后,可为同一 Task 发起多个“Attempts”。 支持并行运行(不同分支/工作区),也支持串行执行(等待上一步完成再进行)。执行状态、日志一目了然。

每次 Agent 生成代码后,Vibe Kanban 会自动显示 diff 与执行输出,并提供一键启动 Dev Server 的按钮,方便实时预览。

采用常见的 Kanban 三列(To Do,In Progress,Done),直观睡一眼看到 Task 状态与 Agent 执行进度。 你可以为某 Task 创建多个 Attempt(尝试),并标记为成功/失败。

所有 Agent 的配置(例如 Claude、Gemini 的 token、运行命令等)都在 Settings 界面集中管理,切换使用流畅无缝。

Vibe Kanban 内建 “Vibe Kanban MCP” 服务器插件,可通过 Agent 自动生成 planner ticket。例如:

“Plan a migration from AWS to Azure and create detailed tickets…” Agent 会自动拆解任务、创建多个 Kanban 卡片,这一切都在 UI 中完成,无需人工介入。

  1. 在 Kanban 中创建一个 Task:例如 “实现用户登录页面”;
  2. 选择 Agent(如 Claude Code),点击 “New Attempt”;
  3. Agent 自动生成登录页面组件与后端接口;
  4. 你审查差异,运行 Dev Server,验证 UI;
  5. 发现问题,修改指示让 Agent 重试,或重新选 Agent(如 Gemini);
  6. 标记 Attempt 成功,将 Task 移至 Done。

整个过程无需切换命令行窗口,一切在 UI 内操作,高效直观。


  • 对个人开发者: 极大提升启动任务、审查、调试效率,让开发更流畅、更有结构感。

  • 对小团队协作: Agent 自动拆任务、多个 Attempt 协同完成、有独立 Git worktree、可接入外部 MCP,适合团队流水线协作。

  • 投资未来能力: 随着 Agent 能力的持续提升,Vibe Kanban 能无缝适配不同 Agent,让你随时体验最新模型能力。


⏳ 尾声:AI 在编码,我们在协作

Section titled “⏳ 尾声:AI 在编码,我们在协作”

Vibe Kanban 正在开创「Agent 驱动、人人驾驭」的新范式。从写代码到 orchestrate 和 review 代码时代,我们将释放人的创造力,让 Agent Handoff 更高效、流程更清晰。推荐所有正在试用或在生产中使用 coding agents 的开发者一试。

🎯 ccusage 分析 Claude Code 使用情况

ccusage 是由开源开发者 ryoppippi 创建的一款命令行工具,用于分析 Claude Code 本地生成的 JSONL 文件,通过可视化表格方式展示你的 token 使用情况及对应成本,帮助你更好地管理使用习惯和成本结构。

  • 功能简洁:只需一行命令即可获得每日、每月、会话和账单区块(5 小时)级别的 token 使用及成本分布。
  • 实时监控:支持 blocks --live 实时监控当前账单区块内的消耗速率和项目进度。
  • 轻量高效:体积极小(npm 包 ~1 MB),无需依赖安装,适合快速分析。

  1. 成本意识 Claude Code 的 Max 版虽然可以无限使用,但当切换到按量付费计划时,ccusage 可以帮你预估每日和每月成本,思考“无痛阈值”。

  2. 日常数据追踪 通过每日或月度报告,及时掌握长周期的 token 使用趋势、是否存在突然暴增等异常。

  3. 会话/账单区块监控

    • 会话级别:对应项目、主题分析单次对话的 token 使用分布与成本。
    • 块级监控:跟踪五小时账单周期内的消耗趋势和速率(可添加 --live 实时观察)。
  4. 多终端同步分析 ccusage 默认读取 ~/.config/claude/projects/ 与旧路径 ~/.claude/projects/ 的 JSONL 文件,配合云盘可以实现多设备数据统一。

  5. 二次可视化和工具集成 提供 JSON 输出,可接入如 Raycast、Neovim 插件、Go 或 Rust 版本的实时可视化工具(如ccusage.nvim、ccusage-monitor等)。


无需安装,推荐直接用执行环境方式调用:

Terminal window
# 推荐 bunx(速度极快)
bunx ccusage
# 或 npx
npx ccusage@latest
# 或 Deno
deno run -E -R=$HOME/.claude/projects/ -S=homedir -N='raw.githubusercontent.com:443' npm:ccusage@latest

也可全局安装:

Terminal window
npm install -g ccusage
# 或
bun install -g ccusage

Terminal window
# 显示默认的”daily“每日使用报告:
ccusage
# 指定日报、月报、会话报告或账单区块报告:
ccusage daily
ccusage monthly
ccusage session
ccusage blocks
# 实时监控当前账单区块状态:
ccusage blocks --live

更多常用参数:

  • --since / --until: 仅分析指定日期范围
  • --breakdown: 展示各模型(如 Opus、Sonnet)消耗的明细
  • --json: 输出结构化 JSON,便于集成其他工具

执行 ccusage daily,输出类似:

可快速看到每日总 token、缓存命中次数及估算成本。

使用 ccusage blocks --live,控制台会实时刷新显示当前账单区块累计 token、烧速、剩余预算等,类似 CLI 版 “htop” 。

  1. 成本估算为模拟值:ccusage 显示的是基于 token 数量和模型定价的预估成本,可能与实际账单略有出入。

ccusage 是一款小巧但功能强大的 CLI 工具,适合开发者与 Heavy user:

  • 快速获得每天/每会话/每账单段落的 token 消耗和成本分析;
  • 实时监控当前账单区块进展;
  • 与 Raycast、Neovim、Go/Rust 工具无缝对接;
  • 跨设备分析只需同步 JSONL 文件。

试一试 npx ccusage daily,你将会惊讶于自己在 Claude Code 使用上的“花费轨迹”,并在预算管理上更加有意识。欢迎关注公众号带你一起探索 Claude 生态中的效率奥秘!


📌 最后,如果想了解更多 AI, Vibe Coding 和 Claude 使用技巧、整合插件推荐或进阶分析,欢迎在评论区留言交流,让我们一起打造更智慧的 AI 使用体验!